1000 resultados para facteurs hors-travail
Resumo:
L'athérosclérose (ATS) est une maladie artérielle inflammatoire chronique à l'origine des nombreuses maladies cardiovasculaires que sont l'infarctus du myocarde, l'accident vasculaire cérébral ou encore l'artériopathie oblitérante des membres inférieurs. L'ATS se définit comme la formation de plaques fibro-lipidiques dans l'intima des artères. Les facteurs de risque majeurs associés à l'ATS sont l'hypertension, l'hypercholestérolémie, le tabagisme, le diabète, la sédentarité, ou encore des prédispositions génétiques. L'ATS peut être asymptomatique durant des années ou alors engendrer des complications aiguës pouvant parfois mettre le pronostic vital en jeu. Les complications les plus graves surviennent principalement lors de la rupture d'une plaque athéromateuse dite vulnérable ou instable. En effet, cette dernière peut se rompre et entraîner la formation d'un thrombus artériel occlusif avec, pour conséquence, l'ischémie/nécrose des tissus en aval. Prévenir le développement de la plaque vulnérable et/ou la « stabiliser » permettrait donc de prévenir les complications cliniques de l'ATS. Cet objectif requiert une connaissance éclairée des mécanismes cellulaires et moléculaires impliqués dans la physiopathologie de l'ATS et de la plaque vulnérable. Les travaux expérimentaux menés au sein du laboratoire du service d'angiologie du CHUV sous la direction du Prof. Lucia Mazzolai ont montré que l'angiotensine II (ang II), produit final de la cascade du système rénine-angiotensine, joue un rôle majeur dans la « vulnérabilité » des plaques athéromateuses (1). Ces travaux ont été réalisés à partir d'un modèle animal original développant des plaques d'ATS vulnérables dépendantes de l'ang II: la souris ApoE-/- 2 reins-1 clip (2K1C). Plus récemment, le laboratoire d'angiologie a mis en évidence une implication directe des leucocytes, plus précisément des macrophages et des lymphocytes T CD4+, dans l'athérogenèse ang II-dépendante (2,3). Dernièrement, des travaux ont également suggéré un rôle possible des granulocytes neutrophiles dans l'ATS (4,5,6,7). Toutefois, les études sont encore limitées de sorte que le rôle exact des neutrophiles dans l'ATS et plus spécialement dans l'ATS induite par l'ang II reste à démontrer. Une des recherches actuelles menée dans le laboratoire est donc d'étudier le rôle des neutrophiles dans le développement de la plaque athéromateuse vulnérable à partir du modèle animal, la souris ApoE-/- 2K1C. Pour évaluer le rôle direct des neutrophiles chez notre modèle animal, nous avons choisi comme méthode la déplétion des neutrophiles circulants par l'utilisation d'un anticorps spécifique. Il a été reporté dans la littérature que l'anticorps monoclonal NIMP-R14 3 permettait de dépléter sélectivement in vivo les neutrophiles dans différents modèles murins (8,9). Cependant, ces études ont utilisé cet anticorps anti-neutrophiles majoritairement sur des périodes expérimentales de durées relativement limitées (12-14 jours) et la question s'est donc posée de savoir si cet anticorps pouvait aussi dépléter les neutrophiles chez notre modèle animal, qui requiert une période expérimentale de 4 semaines pour développer des plaques vulnérables (1). Le but de ce travail a donc été de produire l'anticorps NIMP-R14 et d'évaluer son efficacité chez la souris ApoE-/- 2K1C qui développe des plaque d'ATS vulnérables dépendantes de l'ang II.
Resumo:
"L'emploi et les conditions de travail ont une grande incidence sur l'équité en santé", note l'Organisation mondiale de la santé (OMS) dans un rapport publié en 2008: ils font partie des principaux déterminants sociaux "à l'origine d'une grande part des inégalités en santé observées entre pays et dans les pays". Ce constat se fonde sur un vaste corpus d'enquêtes et de recherches menées à l'échelle internationale, dont le renouveau ces trois dernières décennies a été stimulé par l'explosion du chômage et de la précarisation de l'emploi, ainsi que par l'intensification du travail. Pour la première fois, une vue chiffrée d'ensemble de cette problématique est également disponible pour la Suisse, basée sur les données de la dernière enquête suisse sur la santé, réalisée en 2007 par l'Office fédéral de la statistique (OFS). L'étude dont nous présentons ici les résultats cherche à répondre à trois questions?: 1) Quelles sont les conditions de travail à risque (physique ou psycho-social) les plus fréquentes? Qui y est le plus exposé, en fonction notamment du sexe, de la position sociale ou de la branche d'activité? 2) Quelles associations peut-on mettre en évidence entre ces conditions de travail et l'état de santé? 3) Quels sont les liens entre le fait d'être au chômage ou de craindre pour son emploi et l'état de santé? Les données analysées révèlent un lien significatif entre les conditions de travail à risques, plus fréquentes que souvent admis, et une santé dégradée chez les personnes concernées. L'association est encore plus forte avec le fait d'être au chômage. Ces réalités sont souvent passées sous silence, en Suisse encore plus qu'ailleurs. Cette étude contribue à les rendre visibles et à instruire ainsi le débat nécessaire sur les conditions économiques et sociales de leur changement. Débat dont l'actualité est redoublée par les conséquences dramatiques sur l'emploi et sur les conditions de travail de l'actuelle crise économique internationale. [Ed.]
Resumo:
Contexte : La stimulation du nerf vague est une technique neurochirurgicale qui consiste en l'implantation d'une électrode envoyant des impulsions autours de celui-ci. Depuis l'approbation de la FDA en 1997 aux Etats-Unis, elle est utilisée chez certains patients épileptiques pharmaco-résistants et dont la chirurgie classique n'est pas envisageable [1], Par exemple lorsque qu'aucun foyer épileptique n'est identifiable, qu'une zone éloquente du cortex est atteinte ou encore qu'il y a de multiples points de départ. On parle généralement de patient « répondeur » lorsqu'une diminution de plus de 50% des crises est observée après l'opération. La proportion de patients répondeurs est estimée entre 20 à 50% [2], avec une action positive sur l'éveil [3]. Le mécanisme d'action de cette thérapie reste largement inconnu même si quelques ébauches d'hypothèses ont été formulées, notamment une action inhibitrice sur le noyau solitaire du nerf vague qui pourrait avoir comme effet de moduler des projections ascendantes diffuses via le locus coeruleus [3, 4]. Objectifs : Le but de ce travail est d'observer les effets de la stimulation du nerf vague sur le métabolisme cérébral et potentiellement d'élaborer des hypothèses sur le mécanisme d'action de ce traitement. Il faudra plus précisément s'intéresser au tronc cérébral, contenant le locus coeruleus (métabolisme de la noradrénaline) et aux noyaux du raphé (métabolisme de la sérotonine), deux neurotransmetteurs avec effet antiépileptique [5]. Le but sera également d'établir des facteurs prédictifs sur la façon de répondre d'un patient à partir d'une imagerie cérébrale fonctionnelle avant implantation, notamment au niveau du métabolisme cortical, particulièrement frontal (éveil) sera intéressant à étudier. Méthodes : Un formulaire d'information ainsi que de consentement éclairé sera remis à chaque patient avant inclusion dans l'étude. Les informations de chaque patient seront également inscrites dans un cahier d'observation (Case Report Form, CRF). Le travail s'organisera essentiellement sur deux populations. Premièrement, chez les patients déjà opérés avec un stimulateur en marche, nous réaliserons qu'une imagerie PET au F-18-fluorodeoxyglucose (FDG) post-opératoire qui seront comparés à une base de données de patients normaux (collaboration Dr E. Guedj, AP-HM, La Timone, Marseille). Nous confronterons également les images de ces patients entre elles, en opposant les répondeurs (diminution des crises de ≥50%) aux non-répondeurs. Deuxièmement, les patients non encore opérés auront un examen PET basal avant implantation et 3-6 mois après la mise en marche du stimulateur. Nous évaluerons alors les éventuelles modifications entre ces deux imageries PET, à la recherche de différences entre les répondeurs et non-répondeurs, ainsi que de facteurs prédictifs de bonne réponse dans l'imagerie de base. Toutes les comparaisons d'images seront effectuées grâce avec le programme d'analyse SPM08. Résultats escomptés : Nous espérons pouvoir mettre en évidence des modifications du métabolisme cérébral au FDG sur la base de ces différentes images. Ces constatations pourraient nous permettre de confirmer ou d'élargir les hypothèses physiologiques quant aux effets du traitement par stimulation vagale. Nous aimerions, de plus, amener à définir des facteurs prédictifs sur la façon de répondre d'un patient au traitement à l'aide du PET au F-18-FDG de départ avant implantation. Plus value escomptée : Ces résultats pourront donner des pistes supplémentaires quant au fonctionnement de la stimulation vagale chez les patients avec épilepsie réfractaire et servir de base à de nouvelles recherches dans ce domaine. Ils pourraient aussi donner des éléments pronostics avant l'implantation pour aider la sélection des patients pouvant bénéficier de ce type de thérapie.
Resumo:
SUMMARY : The arbuscular mycorrhizal (AM) symbiosis is an evolutionarily ancient association between most land plants and Glomeromycotan fungi that is based on the mutual exchange of nutrients between the two partners. Its structural and physiological establishment is a multi-step process involving a tightly regulated signal exchange leading to intracellular colonization of roots by the fungi. Most research on the molecular biology and genetics of symbiosis development has been performed in dicotyledonous model legumes. In these, a plant signaling pathway, the common SYM pathway, has been found to be required for accommodation of both root symbionts rhizobia and AM fungi. Rice, a monocotyledon model and the world's most important staple crop also forms AM symbioses, has been largely ignored for studies of the AM symbiosis. Therefore in this PhD work functional conservation of the common SYM pathway in rice was addressed and demonstrated. Mycorrhiza-specific marker genes were established that are expressed at different stages of AM development and therefore represent readouts for various AM-specific signaling events. These tools were successfully used to obtain evidence for a yet unknown signaling network comprising common SYM-dependent and -independent events. In legumes AM colonization induces common SYM signaling dependent changes in root system architecture. It was demonstrated that also in rice, root system architecture changes in response to AM colonization but these alterations occur independently of common SYM signaling. The rice root system is complex and contains three different root types. It was shown that root type identity influences the quantity of AM colonization, indicating root type specific symbiotic properties. Interestingly, the root types differed in their transcriptional responses to AM colonization and the less colonized root type responded more dramatically than the more strongly colonized root type. Finally, in an independent project a novel mutant, inhospitable (iho), was discovered. It is perturbed at the most early step of AM colonization, namely differentiation of the AM fungal hyphae into a hyphopodium at the root surface. As plant factors required for this early step are not known, identification of the IHO gene will greatly contribute to the advance of mycorrhiza RÉSUMÉ : La symbiose mycorhizienne arbusculaire (AM) est une association évolutionnairement ancienne entre la majorité des plantes terrestres et les champignons du type Glomeromycota, basée sur l'échange mutuel d'éléments nutritifs entre les deux partenaires. Son établissement structural et physiologique est un processus en plusieurs étapes, impliquant des échanges de signaux étroitement contrôlés, aboutissant à la colonisation intracellulaire des racines par le champignon. La plupart des recherches sur la biologie moléculaire et la génétique du développement de la symbiose ont été effectuées sur des légumineuses dicotylédones modèles. Dans ces dernières, une voie de signalisation, la voie SYM, s'est avérée nécessaire pour permettre la mise en place de la symbiose mycorhizienne. Chez les plantes monocotylédones, comme le riz, une des céréales les plus importantes, nourrissant la moitié de la population mondiale, peu de recherches ont été effectuées sur les bases de la cette symbiose. Dans ce travail de thèse, la conservation fonctionnelle de la voie commune SYM chez le riz a été étudiée et démontrée. De plus, des gènes marqueurs spécifiques des différentes étapes du développement de l'AM ont été identifiés, permettant ainsi d'avoir des traceurs de la colonisation. Ces outils ont été utilisés avec succès pour démontrer l'existence d'un nouveau réseau de signalisation, comprenant des éléments SYM dépendant et indépendant. Chez les légumineuses, la colonisation par les AM induit des changements dans l'architecture du système racinaire, via la signalisation SYM dépendantes. Cependant chez le riz, il a été démontré que l'architecture de système racinaire changeait suite à la colonisation de l'AM, mais ceux, de façon SYM indépendante. Le système racinaire du riz est complexe et contient trois types différents de racines. Il a été démontré que le type de racine pouvait influencer l'efficacité de la colonisation par l'AM, indiquant que les racines ont des propriétés symbiotiques spécifiques différentes. De façon surprenante, les divers types de racines répondent de différemment suite à colonisation par l'AM avec des changements de la expression des gènes. Le type de racine le moins colonisé, répondant le plus fortement a la colonisation, et inversement. En parallèle, dans un projet indépendant, un nouveau mutant, inhospitable (iho), a été identifié. Ce mutant est perturbé lors de l'étape la plus précoce de la colonisation par l'AM, à savoir la différentiation des hyphes fongiques de l'AM en hyphopodium, à la surface des racines. Les facteurs d'origine végétale requis pour cette étape étant encore inconnus, l'identification du gène IHO contribuera considérablement a accroître nos connaissance sur les bases de la mise en place de cette symbiose.
Resumo:
Cette thèse analyse la défense du paradis fiscal suisse dans les négociations internationales de l'entre-deux-guerres. Pour ce faire, elle s'appuie sur un très large panel de sources inédites, tirées des archives publiques suisses, britanniques, françaises, allemandes et belges, ainsi que sur une série d'archives du monde économique et d'organisations internationales. Ce travail tente, sur cette base, de retracer l'évolution des pourparlers fiscaux et d'identifier comment les dirigeants suisses sont parvenus à écarter en leur sein les premières pressions internationales qui surviennent après la Grande Guerre à l'encontre des pratiques fiscales helvétiques. Sur fond de fuites massives d'avoirs européens en direction du refuge suisse, ces démarches étrangères à l'encontre du secret bancaire sont menées aussi bien au niveau multilatéral, au sein des débats fiscaux de la Société des Nations, que sur le plan bilatéral, à l'intérieur des négociations interétatiques pour la conclusion de conventions de double imposition et d'assistance fiscale. Pourtant, les tentatives de la part des gouvernements européens d'amorcer une coopération contre l'évasion fiscale avec leur homologue suisse échouent constamment durant l'entre-deux-guerres : non seulement aucune mesure de collaboration internationale n'est adoptée par la Confédération, mais les dirigeants helvétiques parviennent encore à obtenir dans les négociations des avantages fiscaux pour les capitaux qui sont exportés depuis la Suisse ou qui transitent par son entremise. En clair, bien loin d'être amoindrie, la compétitivité fiscale du centre économique suisse sort renforcée des discussions internationales de l'entre-deux-guerres. La thèse avance à la fois des facteurs endogènes et exogènes à la politique suisse pour expliquer cette réussite a priori surprenante dans un contexte de crise financière et monétaire aiguë. A l'intérieur de la Confédération, la grande cohésion des élites suisses facilite la défense extérieure de la compétitivité fiscale. En raison de l'anémie de l'administration fiscale fédérale, du conservatisme du gouvernement ou encore de l'interpénétration du patronat industriel et bancaire helvétique, les décideurs s'accordent presque unanimement sur le primat à une protection rigoureuse du secret bancaire. En outre, corollaire de l'afflux de capitaux en Suisse, la place financière helvétique dispose de différentes armes économiques qu'elle peut faire valoir pour défendre ses intérêts face aux gouvernements étrangers. Mais c'est surtout la conjonction de trois facteurs exogènes au contexte suisse qui a favorisé la position helvétique au sein des négociations fiscales internationales. Premièrement, après la guerre, le climat anti-fiscal qui prédomine au sein d'une large frange des élites occidentales incite les gouvernements étrangers à faire preuve d'une grande tolérance à l'égard du havre fiscal suisse. Deuxièmement, en raison de leur sous-développement, les administrations fiscales européennes n'ont pas un pouvoir suffisant pour contrecarrer la politique suisse. Troisièmement, les milieux industriels et financiers étrangers tendent à appuyer les stratégies de défense du paradis fiscal suisse, soit parce qu'ils usent eux-mêmes de ses services, soit parce que, avec la pression à la baisse qu'il engendre sur les systèmes fiscaux des autres pays, l'îlot libéral helvétique participe au démantèlement de la fiscalité progressive que ces milieux appellent de leur voeu.
Resumo:
Dans le contexte d'un climat de plus en plus chaud, une étude « géosystémique » de la répartition du pergélisol dans l'ensemble d'un versant périglaciaire alpin, de la paroi rocheuse jusqu'au glacier rocheux, s'avère primordiale. S'insérant dans cette problématique, ce travail de thèse vise comme objectif général l'étude des versants d'éboulis situés à l'intérieur de la ceinture du pergélisol discontinu selon deux volets de recherche différents : une étude de la stratigraphie et de la répartition du pergélisol dans les éboulis de haute altitude et des processus qui lui sont associés ; une reconstitution de l'histoire paléoenvironnementale du domaine périglaciaire alpin pendant le Tardiglaciaire et l'Holocène. La stratigraphie et la répartition spatiale du pergélisol a été étudiée dans cinq éboulis des Alpes Valaisannes (Suisse), dont trois ont fait l'objet de forages profonds, grâce à la prospection géophysique de détail effectuée à l'aide de méthodes thermiques, de résistivité, sismiques et nucléaires. Les mesures effectuées ont permis de mettre en évidence que, dans les cinq éboulis étudiés, la répartition du pergélisol est discontinue et aucun des versants n'est intégralement occupé par du pergélisol. En particulier, il a été possible de prouver de manière directe que, dans un éboulis, le pergélisol est présent dans les parties inférieures du versant et absent dans les parties supérieures. Trois facteurs de contrôle principaux de la répartition du pergélisol déterminée au sein des éboulis étudiés ont été individualisés, pouvant agir seuls ou de manière combinée : la ventilation ascendante, l'augmentation de la granulométrie en direction de l'aval et la redistribution de la neige par le vent et les avalanches. Parmi ceux-ci, la relation ventilation - granulométrie semble être le facteur de contrôle principal permettant d'expliquer la présence de pergélisol dans les parties inférieures d'un éboulis et son absence dans les parties supérieures. Enfin, l'analyse de la structure des éboulis périglaciaires de haute altitude a permis de montrer que la stratigraphie du pergélisol peut être un élément important pour l'interprétation de la signification paléoclimatique de ce type de formes. Pour le deuxième volet de la recherche, grâce aux datations relatives effectuées à l'aide de l'utilisation conjointe de la méthode paléogéographique et du marteau de Schmidt, il a été possible de définir la chrono - stratigraphie du retrait glaciaire et du développement des glaciers rocheux et des versants d'éboulis d es quatre régions des Alpes suisses étudiées (régions du Mont Gelé - Mont Fort, des Fontanesses et de Chamosentse , dans les Alpes Valaisannes, et Massif de la Cima di Gana Bianca , dans les Alpes Tessinoises). La compilation de toutes les datations effectuées a permis de montrer que la plupart des glaciers rocheux actifs étudiés se seraient développés soit juste avant et/ou pendant l'Optimum Climatique Holocène de 9.5 - 6.3 ka cal BP, soit au plus tard juste après cet évènement climatique majeur du dernier interglaciaire. Parmi les glaciers rocheux fossiles datés, la plupart aurait commencé à se former dans la deuxième moitié du Tardiglaciaire et se serait inactivé dans la première partie de l'Optimum Climatique Holocène. Pour les éboulis étudiés, les datations effectuées ont permis d'observer que leur surface date de la période entre le Boréal et l'Atlantique récent, indiquant que les taux d'éboulisation après la fin de l'Optimum Climatique Holocène ont dû être faibles, et que l'intervalle entre l'âge maximal et l'âge minimal est dans la plupart des cas relativement court (4 - 6 millénaires), indiquant que les taux d'éboulisation durant la période de formation des éboulis ont dû être importants. Grâce au calcul des taux d'érosion des parois rocheuses sur la base du volume de matériaux rocheux pour quatre des éboulis étudiés, il a été possible mettre en évidence l'existence d'une « éboulisation parapériglaciaire » liée à la dégradation du pergélisol dans les parois rocheuses, fonctionnant principalement durant les périodes de réchauffement climatique rapide comme cela a été le cas au début du Bølling, du Préboréal à la fin de l'Atlantique récent et, peut-être, à partir des années 1980.
Resumo:
Rapport de synthèse : L'article constituant le présent travail de thèse décrit une recherche portant sur des couples adultes recrutés dans la population générale, décrivant rétrospectivement les attitudes de leurs parents respectifs envers eux au cours de leur enfance. Le rôle joué par les attitudes d'attachement dans les relations adultes, et notamment les relations de couples, est bien démontré. De même, il est établi que les relations établies avec les parents dans l'enfance influencent le type d'attitude d'attachement qui prédominera à l'âge adulte. Dès lors, nous avons investigué l'existence, au sein de ces couples adultes, de souvenirs similaires quant aux attitudes prodiguées par les parents. Pour réaliser cette recherche, nous avons contacté tous les parents des enfants scolarisés en 2e/3e années et en 6e/7e années au sein des écoles de plusieurs communes de la région lausannoise, permettant de constituer un échantillon de 563 couples de parents. Au moyen d'autoquestionnaires, nous avons évalué pour chaque membre du couple : 1) sa description rétrospective des attitudes de ses deux parents envers lui pendant son enfance ; 2) le degré de sa symptomatologie psychiatrique actuelle ; et 3) son évaluation du degré d'ajustement dyadique actuel au sein du couple. La comparaison des scores des époux respectifs sur « l'échelle de lien parental » (PBI : Parental Bonding Instrument) a montré une ressemblance, au sein des couples, concernant la c chaleur et affection » (« Care ») témoignée au cours de l'enfance parle parent de même sexe que le sujet. Les analyses complémentaires effectuées semblent exclure que cette similarité soit due à des facteurs confondant comme l'âge, l'origine culturelle, le niveau socio-économique, ou le degré de symptomatologie psychiatrique. De même, cette similarité ne semble pas être attribuable à une convergence de vue grandissante des conjoints au cours de leur union. Par ailleurs, le degré d'ajustement dyadique s'est révélé être dépendant du degré cumulé de chaleur et d'affection tel que remémoré par chaque conjoint, et non du degré de similarité dans le couple pour ce qui concerne le souvenir de la chaleur et de l'affection reçues. Bien que basée sur des évaluations rétrospectives des attitudes parentales, et ne disposant pas d'une investigation psychiatrique standardisée incluant les critères diagnostiques, cette étude repose néanmoins sur un grand échantillon, recruté dans la population générale. Nos résultats ont notamment des implications concernant la santé des enfants. En effet, en raison de la similarité mise en évidence dans nos résultats, un enfant dont un des parents a reçu peu de chaleur et d'affection dans son enfance a plus de chances que son autre parent aie lui-même également reçu moins de chaleur et d'affection. De ce fait, d'une part l'ajustement dyadique du couple parental sera particulièrement bas, ce qui peut se répercuter sur les enfants du couple. D'autre part, comme les attitudes parentales se transmettent en partie de génération en génération, le même enfant risque d'être exposé, de la part de ses deux parents, à une attitude comportant peu de chaleur et d'affection, ce qui représente un risque de développement ultérieur des pathologies psychiatriques chez cet enfant.
Resumo:
Ces dernières années, de nombreuses recherches ont mis en évidence les effets toxiques des micropolluants organiques pour les espèces de nos lacs et rivières. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, alors que les organismes sont exposés tous les jours à des milliers de substances en mélange. Or les effets de ces cocktails ne sont pas négligeables. Cette thèse de doctorat s'est ainsi intéressée aux modèles permettant de prédire le risque environnemental de ces cocktails pour le milieu aquatique. Le principal objectif a été d'évaluer le risque écologique des mélanges de substances chimiques mesurées dans le Léman, mais aussi d'apporter un regard critique sur les méthodologies utilisées afin de proposer certaines adaptations pour une meilleure estimation du risque. Dans la première partie de ce travail, le risque des mélanges de pesticides et médicaments pour le Rhône et pour le Léman a été établi en utilisant des approches envisagées notamment dans la législation européenne. Il s'agit d'approches de « screening », c'est-à-dire permettant une évaluation générale du risque des mélanges. Une telle approche permet de mettre en évidence les substances les plus problématiques, c'est-à-dire contribuant le plus à la toxicité du mélange. Dans notre cas, il s'agit essentiellement de 4 pesticides. L'étude met également en évidence que toutes les substances, même en trace infime, contribuent à l'effet du mélange. Cette constatation a des implications en terme de gestion de l'environnement. En effet, ceci implique qu'il faut réduire toutes les sources de polluants, et pas seulement les plus problématiques. Mais l'approche proposée présente également un biais important au niveau conceptuel, ce qui rend son utilisation discutable, en dehors d'un screening, et nécessiterait une adaptation au niveau des facteurs de sécurité employés. Dans une deuxième partie, l'étude s'est portée sur l'utilisation des modèles de mélanges dans le calcul de risque environnemental. En effet, les modèles de mélanges ont été développés et validés espèce par espèce, et non pour une évaluation sur l'écosystème en entier. Leur utilisation devrait donc passer par un calcul par espèce, ce qui est rarement fait dû au manque de données écotoxicologiques à disposition. Le but a été donc de comparer, avec des valeurs générées aléatoirement, le calcul de risque effectué selon une méthode rigoureuse, espèce par espèce, avec celui effectué classiquement où les modèles sont appliqués sur l'ensemble de la communauté sans tenir compte des variations inter-espèces. Les résultats sont dans la majorité des cas similaires, ce qui valide l'approche utilisée traditionnellement. En revanche, ce travail a permis de déterminer certains cas où l'application classique peut conduire à une sous- ou sur-estimation du risque. Enfin, une dernière partie de cette thèse s'est intéressée à l'influence que les cocktails de micropolluants ont pu avoir sur les communautés in situ. Pour ce faire, une approche en deux temps a été adoptée. Tout d'abord la toxicité de quatorze herbicides détectés dans le Léman a été déterminée. Sur la période étudiée, de 2004 à 2009, cette toxicité due aux herbicides a diminué, passant de 4% d'espèces affectées à moins de 1%. Ensuite, la question était de savoir si cette diminution de toxicité avait un impact sur le développement de certaines espèces au sein de la communauté des algues. Pour ce faire, l'utilisation statistique a permis d'isoler d'autres facteurs pouvant avoir une influence sur la flore, comme la température de l'eau ou la présence de phosphates, et ainsi de constater quelles espèces se sont révélées avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps. Fait intéressant, une partie d'entre-elles avait déjà montré des comportements similaires dans des études en mésocosmes. En conclusion, ce travail montre qu'il existe des modèles robustes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques, et qu'ils peuvent être utilisés pour expliquer le rôle des substances dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application. - Depuis plusieurs années, les risques que posent les micropolluants organiques pour le milieu aquatique préoccupent grandement les scientifiques ainsi que notre société. En effet, de nombreuses recherches ont mis en évidence les effets toxiques que peuvent avoir ces substances chimiques sur les espèces de nos lacs et rivières, quand elles se retrouvent exposées à des concentrations aiguës ou chroniques. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, c'est à dire considérées séparément. Actuellement, il en est de même dans les procédures de régulation européennes, concernant la partie évaluation du risque pour l'environnement d'une substance. Or, les organismes sont exposés tous les jours à des milliers de substances en mélange, et les effets de ces "cocktails" ne sont pas négligeables. L'évaluation du risque écologique que pose ces mélanges de substances doit donc être abordé par de la manière la plus appropriée et la plus fiable possible. Dans la première partie de cette thèse, nous nous sommes intéressés aux méthodes actuellement envisagées à être intégrées dans les législations européennes pour l'évaluation du risque des mélanges pour le milieu aquatique. Ces méthodes sont basées sur le modèle d'addition des concentrations, avec l'utilisation des valeurs de concentrations des substances estimées sans effet dans le milieu (PNEC), ou à partir des valeurs des concentrations d'effet (CE50) sur certaines espèces d'un niveau trophique avec la prise en compte de facteurs de sécurité. Nous avons appliqué ces méthodes à deux cas spécifiques, le lac Léman et le Rhône situés en Suisse, et discuté les résultats de ces applications. Ces premières étapes d'évaluation ont montré que le risque des mélanges pour ces cas d'étude atteint rapidement une valeur au dessus d'un seuil critique. Cette valeur atteinte est généralement due à deux ou trois substances principales. Les procédures proposées permettent donc d'identifier les substances les plus problématiques pour lesquelles des mesures de gestion, telles que la réduction de leur entrée dans le milieu aquatique, devraient être envisagées. Cependant, nous avons également constaté que le niveau de risque associé à ces mélanges de substances n'est pas négligeable, même sans tenir compte de ces substances principales. En effet, l'accumulation des substances, même en traces infimes, atteint un seuil critique, ce qui devient plus difficile en terme de gestion du risque. En outre, nous avons souligné un manque de fiabilité dans ces procédures, qui peuvent conduire à des résultats contradictoires en terme de risque. Ceci est lié à l'incompatibilité des facteurs de sécurité utilisés dans les différentes méthodes. Dans la deuxième partie de la thèse, nous avons étudié la fiabilité de méthodes plus avancées dans la prédiction de l'effet des mélanges pour les communautés évoluant dans le système aquatique. Ces méthodes reposent sur le modèle d'addition des concentrations (CA) ou d'addition des réponses (RA) appliqués sur les courbes de distribution de la sensibilité des espèces (SSD) aux substances. En effet, les modèles de mélanges ont été développés et validés pour être appliqués espèce par espèce, et non pas sur plusieurs espèces agrégées simultanément dans les courbes SSD. Nous avons ainsi proposé une procédure plus rigoureuse, pour l'évaluation du risque d'un mélange, qui serait d'appliquer d'abord les modèles CA ou RA à chaque espèce séparément, et, dans une deuxième étape, combiner les résultats afin d'établir une courbe SSD du mélange. Malheureusement, cette méthode n'est pas applicable dans la plupart des cas, car elle nécessite trop de données généralement indisponibles. Par conséquent, nous avons comparé, avec des valeurs générées aléatoirement, le calcul de risque effectué selon cette méthode plus rigoureuse, avec celle effectuée traditionnellement, afin de caractériser la robustesse de cette approche qui consiste à appliquer les modèles de mélange sur les courbes SSD. Nos résultats ont montré que l'utilisation de CA directement sur les SSDs peut conduire à une sous-estimation de la concentration du mélange affectant 5 % ou 50% des espèces, en particulier lorsque les substances présentent un grand écart- type dans leur distribution de la sensibilité des espèces. L'application du modèle RA peut quant à lui conduire à une sur- ou sous-estimations, principalement en fonction de la pente des courbes dose- réponse de chaque espèce composant les SSDs. La sous-estimation avec RA devient potentiellement importante lorsque le rapport entre la EC50 et la EC10 de la courbe dose-réponse des espèces est plus petit que 100. Toutefois, la plupart des substances, selon des cas réels, présentent des données d' écotoxicité qui font que le risque du mélange calculé par la méthode des modèles appliqués directement sur les SSDs reste cohérent et surestimerait plutôt légèrement le risque. Ces résultats valident ainsi l'approche utilisée traditionnellement. Néanmoins, il faut garder à l'esprit cette source d'erreur lorsqu'on procède à une évaluation du risque d'un mélange avec cette méthode traditionnelle, en particulier quand les SSD présentent une distribution des données en dehors des limites déterminées dans cette étude. Enfin, dans la dernière partie de cette thèse, nous avons confronté des prédictions de l'effet de mélange avec des changements biologiques observés dans l'environnement. Dans cette étude, nous avons utilisé des données venant d'un suivi à long terme d'un grand lac européen, le lac Léman, ce qui offrait la possibilité d'évaluer dans quelle mesure la prédiction de la toxicité des mélanges d'herbicide expliquait les changements dans la composition de la communauté phytoplanctonique. Ceci à côté d'autres paramètres classiques de limnologie tels que les nutriments. Pour atteindre cet objectif, nous avons déterminé la toxicité des mélanges sur plusieurs années de 14 herbicides régulièrement détectés dans le lac, en utilisant les modèles CA et RA avec les courbes de distribution de la sensibilité des espèces. Un gradient temporel de toxicité décroissant a pu être constaté de 2004 à 2009. Une analyse de redondance et de redondance partielle, a montré que ce gradient explique une partie significative de la variation de la composition de la communauté phytoplanctonique, même après avoir enlevé l'effet de toutes les autres co-variables. De plus, certaines espèces révélées pour avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps, ont montré des comportements similaires dans des études en mésocosmes. On peut en conclure que la toxicité du mélange herbicide est l'un des paramètres clés pour expliquer les changements de phytoplancton dans le lac Léman. En conclusion, il existe diverses méthodes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques et celui-ci peut jouer un rôle dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application, avant d'utiliser leurs résultats pour la gestion des risques environnementaux. - For several years now, the scientists as well as the society is concerned by the aquatic risk organic micropollutants may pose. Indeed, several researches have shown the toxic effects these substances may induce on organisms living in our lakes or rivers, especially when they are exposed to acute or chronic concentrations. However, most of the studies focused on the toxicity of single compounds, i.e. considered individually. The same also goes in the current European regulations concerning the risk assessment procedures for the environment of these substances. But aquatic organisms are typically exposed every day simultaneously to thousands of organic compounds. The toxic effects resulting of these "cocktails" cannot be neglected. The ecological risk assessment of mixtures of such compounds has therefore to be addressed by scientists in the most reliable and appropriate way. In the first part of this thesis, the procedures currently envisioned for the aquatic mixture risk assessment in European legislations are described. These methodologies are based on the mixture model of concentration addition and the use of the predicted no effect concentrations (PNEC) or effect concentrations (EC50) with assessment factors. These principal approaches were applied to two specific case studies, Lake Geneva and the River Rhône in Switzerland, including a discussion of the outcomes of such applications. These first level assessments showed that the mixture risks for these studied cases exceeded rapidly the critical value. This exceeding is generally due to two or three main substances. The proposed procedures allow therefore the identification of the most problematic substances for which management measures, such as a reduction of the entrance to the aquatic environment, should be envisioned. However, it was also showed that the risk levels associated with mixtures of compounds are not negligible, even without considering these main substances. Indeed, it is the sum of the substances that is problematic, which is more challenging in term of risk management. Moreover, a lack of reliability in the procedures was highlighted, which can lead to contradictory results in terms of risk. This result is linked to the inconsistency in the assessment factors applied in the different methods. In the second part of the thesis, the reliability of the more advanced procedures to predict the mixture effect to communities in the aquatic system were investigated. These established methodologies combine the model of concentration addition (CA) or response addition (RA) with species sensitivity distribution curves (SSD). Indeed, the mixture effect predictions were shown to be consistent only when the mixture models are applied on a single species, and not on several species simultaneously aggregated to SSDs. Hence, A more stringent procedure for mixture risk assessment is proposed, that would be to apply first the CA or RA models to each species separately and, in a second step, to combine the results to build an SSD for a mixture. Unfortunately, this methodology is not applicable in most cases, because it requires large data sets usually not available. Therefore, the differences between the two methodologies were studied with datasets created artificially to characterize the robustness of the traditional approach applying models on species sensitivity distribution. The results showed that the use of CA on SSD directly might lead to underestimations of the mixture concentration affecting 5% or 50% of species, especially when substances present a large standard deviation of the distribution from the sensitivity of the species. The application of RA can lead to over- or underestimates, depending mainly on the slope of the dose-response curves of the individual species. The potential underestimation with RA becomes important when the ratio between the EC50 and the EC10 for the dose-response curve of the species composing the SSD are smaller than 100. However, considering common real cases of ecotoxicity data for substances, the mixture risk calculated by the methodology applying mixture models directly on SSDs remains consistent and would rather slightly overestimate the risk. These results can be used as a theoretical validation of the currently applied methodology. Nevertheless, when assessing the risk of mixtures, one has to keep in mind this source of error with this classical methodology, especially when SSDs present a distribution of the data outside the range determined in this study Finally, in the last part of this thesis, we confronted the mixture effect predictions with biological changes observed in the environment. In this study, long-term monitoring of a European great lake, Lake Geneva, provides the opportunity to assess to what extent the predicted toxicity of herbicide mixtures explains the changes in the composition of the phytoplankton community next to other classical limnology parameters such as nutrients. To reach this goal, the gradient of the mixture toxicity of 14 herbicides regularly detected in the lake was calculated, using concentration addition and response addition models. A decreasing temporal gradient of toxicity was observed from 2004 to 2009. Redundancy analysis and partial redundancy analysis showed that this gradient explains a significant portion of the variation in phytoplankton community composition, even when having removed the effect of all other co-variables. Moreover, some species that were revealed to be influenced positively or negatively, by the decrease of toxicity in the lake over time, showed similar behaviors in mesocosms studies. It could be concluded that the herbicide mixture toxicity is one of the key parameters to explain phytoplankton changes in Lake Geneva. To conclude, different methods exist to predict the risk of mixture in the ecosystems. But their reliability varies depending on the underlying hypotheses. One should therefore carefully consider these hypotheses, as well as the limits of the approaches, before using the results for environmental risk management
Resumo:
Summary : International comparisons in the area of victimization, particularly in the field of violence against women, are fraught with methodological problems that previous research has not systematically addressed, and whose answer does not seem to be agreed up~n. For obvious logistic and financial reasons, international studies on violence against women (i.e. studies that administer the same instrument in different countries). are seldom; therefore, researchers are bound to resort to secondary comparisons. Many studies simply juxtapose their results to the ones of previous wòrk or to findings obtained in different contexts, in order to offer an allegedly comparative perspective to their conclusions. If, most of the time, researchers indicate the methodological limitations of a direct comparison, it is not rare that these do not result in concrete methodological controls. Yet, many studies have shown the influence of surveys methodological parameters on findings, listing recommendations fora «best practice» of research. Although, over the past decades, violence against women surveys have become more and more similar -tending towards a sort of uniformization that could be interpreted as a passive consensus -these instruments retain more or less subtle differences that are still susceptible to influence the validity of a comparison. Yet, only a small number of studies have directly worked on the comparability of violence against women data, striving to control the methodological parameters of the surveys in order to guarantee the validity of their comparisons. The goal of this work is to compare data from two national surveys on violence against women: the Swiss component of the International Violence Against Women Survey [CH-IVAWS] and the National Violence Against Women Survey [NVAWS] administered in the United States. The choice of these studies certainly ensues from the author's affiliations; however, it is far from being trivial. Indeed, the criminological field currently endows American and Anglo-Saxon literature with a predominant space, compelling researchers from other countries to almost do the splits to interpret their results in the light of previous work or to develop effective interventions in their own context. Turning to hypotheses or concepts developed in a specific framework inevitably raises the issue of their applicability to another context, i.e. the Swiss context, if not at least European. This problematic then takes on an interest that goes beyond the particular topic of violence against women, adding to its relevance. This work articulates around three axes. First, it shows the way survey characteristics influence estimates. The comparability of the nature of the CH-IVAWS and NVAWS, their sampling design and the characteristics of their administration are discussed. The definitions used, the operationalization of variables based on comparable items, the control of reference periods, as well as the nature of the victim-offender relationship are included among controlled factors. This study establishes content validity within and across studies, presenting a systematic process destined to maximize the comparability of secondary data. Implications of the process are illustrated with the successive presentation of comparable and non-comparable operationalizations of computed variables. Measuring violence against. women in Switzerland and the United-States, this work compares the prevalence of different forms (threats, physical violence and sexual violence) and types of violence (partner and nonpartner violence). Second, it endeavors to analyze concepts of multivictimization (i.e. experiencing different forms of victimization), repeat victimization (i.e. experiencing the same form of violence more than once), and revictimization (i.e. the link between childhood and adulthood victimization) in a comparative -and comparable -approach. Third, aiming at understanding why partner violence appears higher in the United States, while victims of nonpartners are more frequent in Switzerland, as well as in other European countries, different victimization correlates are examined. This research contributes to a better understanding of the relevance of controlling methodological parameters in comparisons across studies, as it illustrates, systematically, the imposed controls and their implications on quantitative data. Moreover, it details how ignoring these parameters might lead to erroneous conclusions, statistically as well as theoretically. The conclusion of the study puts into a wider perspective the discussion of differences and similarities of violence against women in Switzerland and the United States, and integrates recommendations as to the relevance and validity of international comparisons, whatever the'field they are conducted in. Résumé: Les comparaisons internationales dans le domaine de la victimisation, et plus particulièrement en ce qui concerne les violences envers les femmes, se caractérisent par des problèmes méthodologiques que les recherches antérieures n'ont pas systématiquement adressés, et dont la réponse ne semble pas connaître de consensus. Pour des raisons logistiques et financières évidentes, les études internationales sur les violences envers les femmes (c.-à-d. les études utilisant un même instrument dans différents pays) sont rares, aussi les chercheurs sont-ils contraints de se tourner vers des comparaisons secondaires. Beaucoup de recherches juxtaposent alors simplement leurs résultats à ceux de travaux antérieurs ou à des résultats obtenus dans d'autres contextes, afin d'offrir à leurs conclusions une perspective prétendument comparative. Si, le plus souvent, les auteurs indiquent les limites méthodologiques d'une comparaison directe, il est fréquent que ces dernières ne se traduisent pas par des contrôles méthodologiques concrets. Et pourtant, quantité de travaux ont mis en évidence l'influence des paramètres méthodologiques des enquêtes sur les résultats obtenus, érigeant des listes de recommandations pour une «meilleure pratique» de la recherche. Bien que, ces dernières décennies, les sondages sur les violences envers les femmes soient devenus de plus en plus similaires -tendant, vers une certaine uniformisation que l'on peut interpréter comme un consensus passif-, il n'en demeure pas moins que ces instruments possèdent des différences plus ou moins subtiles, mais toujours susceptibles d'influencer la validité d'une comparaison. Pourtant, seules quelques recherches ont directement travaillé sur la comparabilité des données sur les violences envers les femmes, ayant à coeur de contrôler les paramètres méthodologiques des études utilisées afin de garantir la validité de leurs comparaisons. L'objectif de ce travail est la comparaison des données de deux sondages nationaux sur les violences envers les femmes: le composant suisse de l'International Violence Against Women Survey [CHIVAWSj et le National Violence Against Women Survey [NVAWS) administré aux États-Unis. Le choix de ces deux études découle certes des affiliations de l'auteure, cependant il est loin d'être anodin. Le champ criminologique actuel confère, en effet, une place prépondérante à la littérature américaine et anglo-saxonne, contraignant ainsi les chercheurs d'autres pays à un exercice proche du grand écart pour interpréter leurs résultats à la lumière des travaux antérieurs ou développer des interventions efficaces dans leur propre contexte. Le fait de recourir à des hypothèses et des concepts développés dans un cadre spécifique pose inévitablement la question de leur applicabilité à un autre contexte, soit ici le contexte suisse, sinon du moins européen. Cette problématique revêt alors un intérêt qui dépasse la thématique spécifique des violences envers les femmes, ce qui ajoute à sa pertinence. Ce travail s'articule autour de trois axes. Premièrement, il met en évidence la manière dont les caractéristiques d'un sondage influencent les estimations qui en découlent. La comparabilité de la nature du CH-IVAWS et du NVAWS, de leur processus d'échantillonnage et des caractéristiques de leur administration est discutée. Les définitions utilisées, l'opérationnalisation des variables sur la base d'items comparables, le contrôle des périodes de référence, ainsi que la nature de la relation victime-auteur figurent également parmi les facteurs contrôlés. Ce travail établit ainsi la validité de contenu intra- et inter-études, offrant un processus systématique destiné à maximiser la comparabilité des données secondaires. Les implications de cette démarche sont illustrées avec la présentation successive d'opérationnalisations comparables et non-comparables des variables construites. Mesurant les violences envers les femmes en Suisse et aux États-Unis, ce travail compare la prévalence de plusieurs formes (menaces, violences physiques et violences sexuelles) et types de violence (violences partenaires et non-partenaires). 11 s'attache également à analyser les concepts de multivictimisation (c.-à-d. le fait de subir plusieurs formes de victimisation), victimisation répétée (c.-à.-d. le fait de subir plusieurs incidents de même forme) et revictimisation (c.-à-d. le lien entre la victimisation dans l'enfance et à l'âge adulte) dans une approche comparative - et comparable. Dans un troisième temps, cherchant à comprendre pourquoi la violence des partenaires apparaît plus fréquente aux États-Unis, tandis que les victimes de non-partenaires sont plus nombreuses en Suisse, et dans d'autres pays européens, différents facteurs associés à la victimisation sont évalués. Cette recherche participe d'une meilleure compréhension de la pertinence du contrôle des paramètres méthodologiques dans les comparaisons entre études puisqu'elle illustre, pas à pas, les contrôles imposés et leurs effets sur les données quantitatives, et surtout comment l'ignorance de ces paramètres peut conduire à des conclusions erronées, tant statistiquement que théoriquement. La conclusion replace, dans un contexte plus large, la discussion des différences et des similitudes observées quant à la prévalence des violences envers les femmes en Suisse et aux États-Unis, et intègre des recommandations quant à la pertinence et à la validité des comparaisons internationales, cela quel que soit le domaine considéré.
Resumo:
Rapport de synthèse : Le traitement des leucémies aiguës chez l'enfant représente un des succès de la médecine moderne avec des taux de guérison avoisinant les 80% ce qui implique la nécessité de suivre les effets secondaires à long terme des traitements chez cette population de patients. Récemment plusieurs études internationales ont relevé une prévalence plus importante de surpoids et d'obésité chez les enfants traités pour une leucémie aiguë. L'origine de ce processus reste incertaine :aux effets secondaires bien connus et décrits des traitements (stéroïdes et radiothérapie) semblent s'ajouter des facteurs génétiques, familiaux (age, BMI au diagnostic, BMI parents et fratrie), environnementaux. L'objectif de ce travail est d'estimer la prévalence et les facteurs de risque pour le surpoids et l'obésité chez les enfants traités et guéris d'une leucémie aiguë en Suisse romande et de comparer ces résultats à ceux d'études internationales. Pour répondre à ces questions nous avons inclus 54 patients (40 de Lausanne et 14 de Genève) traités pour une leucémie aiguë. Seuls les enfants à 5 ans de leur première rémission clinique, sans atteinte du système nerveux central, testiculaire ou médullaire et traités par chimiothérapie seule sont retenus. Leur poids, taille sont enregistrés durant les phases précises de traitement (au diagnostic, à la rémission, fin de consolidation, milieumaintenance et en fin de traitement) puis annuellement jusqu'à 12 ans post fin de traitement. Le BMI (kg/ml) et sa déviation standard BMI-SDS (spécifique pour Page et le sexe) pour les patients et leurs parents sont calculés selon les valeurs internationales (IOTF) respectivement BMI-SDS >1.645 (p<0.05) pour le surpoids et> 1.96 (p<0.025) pour l'obésité. Les résultats de ce travail confirment une prévalence double de surpoids (30% versus 17%) et quadruple d'obésité (18% versus 4%) au sein de la population d'enfants traités pour une leucémie aiguë comparées à la population suisse standard. Les facteurs de risque impliqués sont le BMI initial au diagnostic et le BMI maternel contrairement à Page, sexe, stéroïdes et au BMI paternel. Ces données confirment une prévalence significative d'enfants en surpoids/obèses au sein de cette population avec des résultats similaires à ceux retrouvés dans des études internationales récentes. Les facteurs de risque identifiés semblent plutôt liés à l'environnement familial qu'aux traitements. Ces constatations pourraient être le résultat d'interactions complexes entre "le background génétique", les facteurs environnementaux, les habitudes socioculturelles (activité physique, status nutritionnel) paramètres non évalués dans cette revue. Des études plus larges, prospectives sont nécessaires pour clarifier les rôles des différents facteurs de risque et de leurs interactions ;celles-ci devraient inclure des données génétiques (LEPR), taux de leptine, activité physique et le status nutritionnel. Enfin, l'identification des patients à risque est cruciale afin de prévenir les effets secondaires cardio-vasculaires, métaboliques bien connus liés au surpoids et à l'obésité.