998 resultados para Orthographe approchée
Resumo:
Résumé de la thèse Le travail de thèse «VOIR LE MONDE COMME UNE IMAGE. Le schème de l'image mimétique dans la philosophie de Platon (Cratyle, Sophiste, Timée) » d'Alexandre NEVSKY étudie la conception philosophique de l'image chez Platon. En posant la question : qu'est-ce que l'image pour Platon? l'étude se propose, dans un premier temps, d'analyser la manière précise dont l'idée de l'image fonctionne dans l'articulation logique de l'enquête platonicienne, en se basant avant tout sur trois dialogues majeurs où cette idée est explicitement thématisée par Platon lui-même, à savoir le Cratyle, le Sophiste et le Timée. Par une analyse détaillée de ces textes, Alexandre Nevsky essaie de démontrer que l'idée de l'image fonctionne comme un schème euristique dont la logique interne détermine les moments clés dans le déroulement de chaque dialogue examiné, et constitue ainsi une véritable méthode d'investigation philosophique pour Platon. En suivant cette stratégie platonicienne, l'auteur nous montre quel rôle le schème de l'image joue selon Platon d'abord dans la constitution du langage (le Cratyle), puis, dans celle du discours (le Sophiste) et, enfin, dans celle du monde (le Timée). Une telle approche lui permet de revoir l'interprétation traditionnelle de certains passages clés, célèbres pour leurs difficultés, en mettant en évidence la façon dont la nouvelle perspective platonicienne, introduite grâce au schème de l'image, permet de formuler une solution philosophique originale du problème initial. On y trouve ainsi rediscutés, pour ne citer que quelques exemples, la théorie curieuse de l'imitation phonétique et le problème de la justesse propre du nom-image, la définition philosophique de la notion d'image et la distinction platonicienne entre limage-ressemblance et l'image-apparence, la logique paradoxale de l'introduction d'un troisième genre dans la structure ontologique de l'être et la question du sens exact à donner au «discours vraisemblable » de Platon sur la naissance de l'univers. Dans un deuxième temps, cette étude tente de dégager, derrière la méthode heuristique basée sur le schème de l'image, une véritable conception de l'image mimétique chez Platon. L'une des idées principales de la thèse est ici de montrer que cette conception présente une solution philosophique de Platon au problème de l'apparence archaïque. Car, face à la question sophistique : comment une chose - que ce soit le discours ou le monde - peut-elle être une apparence, quelque chose qui n'existe pas? Platon apporte une réponse tout à fait originale elle le peut en tant qu'image. Or, l'image n'est pas une simple apparence illusoire, elle est le reflet d'une autre réalité, indépendante et véritable, que l'on doit supposer, selon Platon, même quand sa nature exacte nous échappe encore. La conception platonicienne de l'image apparaît ainsi comme un pendant indispensable de la théorie des Formes intelligibles et aussi comme son étape préalable au niveau de laquelle l'âme du philosophe, dans son ascension vers la vérité, se retrouve dans un espace intermédiaire, déjà au-delà des illusions du monde phénoménal, mais encore en-deçà des engagements métaphysiques de la théorie des Formes.
Resumo:
A mobile ad hoc network (MANET) is a decentralized and infrastructure-less network. This thesis aims to provide support at the system-level for developers of applications or protocols in such networks. To do this, we propose contributions in both the algorithmic realm and in the practical realm. In the algorithmic realm, we contribute to the field by proposing different context-aware broadcast and multicast algorithms in MANETs, namely six-shot broadcast, six-shot multicast, PLAN-B and ageneric algorithmic approach to optimize the power consumption of existing algorithms. For each algorithm we propose, we compare it to existing algorithms that are either probabilistic or context-aware, and then we evaluate their performance based on simulations. We demonstrate that in some cases, context-aware information, such as location or signal-strength, can improve the effciency. In the practical realm, we propose a testbed framework, namely ManetLab, to implement and to deploy MANET-specific protocols, and to evaluate their performance. This testbed framework aims to increase the accuracy of performance evaluation compared to simulations, while keeping the ease of use offered by the simulators to reproduce a performance evaluation. By evaluating the performance of different probabilistic algorithms with ManetLab, we observe that both simulations and testbeds should be used in a complementary way. In addition to the above original contributions, we also provide two surveys about system-level support for ad hoc communications in order to establish a state of the art. The first is about existing broadcast algorithms and the second is about existing middleware solutions and the way they deal with privacy and especially with location privacy. - Un réseau mobile ad hoc (MANET) est un réseau avec une architecture décentralisée et sans infrastructure. Cette thèse vise à fournir un support adéquat, au niveau système, aux développeurs d'applications ou de protocoles dans de tels réseaux. Dans ce but, nous proposons des contributions à la fois dans le domaine de l'algorithmique et dans celui de la pratique. Nous contribuons au domaine algorithmique en proposant différents algorithmes de diffusion dans les MANETs, algorithmes qui sont sensibles au contexte, à savoir six-shot broadcast,six-shot multicast, PLAN-B ainsi qu'une approche générique permettant d'optimiser la consommation d'énergie de ces algorithmes. Pour chaque algorithme que nous proposons, nous le comparons à des algorithmes existants qui sont soit probabilistes, soit sensibles au contexte, puis nous évaluons leurs performances sur la base de simulations. Nous montrons que, dans certains cas, des informations liées au contexte, telles que la localisation ou l'intensité du signal, peuvent améliorer l'efficience de ces algorithmes. Sur le plan pratique, nous proposons une plateforme logicielle pour la création de bancs d'essai, intitulé ManetLab, permettant d'implémenter, et de déployer des protocoles spécifiques aux MANETs, de sorte à évaluer leur performance. Cet outil logiciel vise à accroître la précision desévaluations de performance comparativement à celles fournies par des simulations, tout en conservant la facilité d'utilisation offerte par les simulateurs pour reproduire uneévaluation de performance. En évaluant les performances de différents algorithmes probabilistes avec ManetLab, nous observons que simulateurs et bancs d'essai doivent être utilisés de manière complémentaire. En plus de ces contributions principales, nous fournissons également deux états de l'art au sujet du support nécessaire pour les communications ad hoc. Le premier porte sur les algorithmes de diffusion existants et le second sur les solutions de type middleware existantes et la façon dont elles traitent de la confidentialité, en particulier celle de la localisation.
Resumo:
In this thesis, we study the use of prediction markets for technology assessment. We particularly focus on their ability to assess complex issues, the design constraints required for such applications and their efficacy compared to traditional techniques. To achieve this, we followed a design science research paradigm, iteratively developing, instantiating, evaluating and refining the design of our artifacts. This allowed us to make multiple contributions, both practical and theoretical. We first showed that prediction markets are adequate for properly assessing complex issues. We also developed a typology of design factors and design propositions for using these markets in a technology assessment context. Then, we showed that they are able to solve some issues related to the R&D portfolio management process and we proposed a roadmap for their implementation. Finally, by comparing the instantiation and the results of a multi-criteria decision method and a prediction market, we showed that the latter are more efficient, while offering similar results. We also proposed a framework for comparing forecasting methods, to identify the constraints based on contingency factors. In conclusion, our research opens a new field of application of prediction markets and should help hasten their adoption by enterprises. Résumé français: Dans cette thèse, nous étudions l'utilisation de marchés de prédictions pour l'évaluation de nouvelles technologies. Nous nous intéressons plus particulièrement aux capacités des marchés de prédictions à évaluer des problématiques complexes, aux contraintes de conception pour une telle utilisation et à leur efficacité par rapport à des techniques traditionnelles. Pour ce faire, nous avons suivi une approche Design Science, développant itérativement plusieurs prototypes, les instanciant, puis les évaluant avant d'en raffiner la conception. Ceci nous a permis de faire de multiples contributions tant pratiques que théoriques. Nous avons tout d'abord montré que les marchés de prédictions étaient adaptés pour correctement apprécier des problématiques complexes. Nous avons également développé une typologie de facteurs de conception ainsi que des propositions de conception pour l'utilisation de ces marchés dans des contextes d'évaluation technologique. Ensuite, nous avons montré que ces marchés pouvaient résoudre une partie des problèmes liés à la gestion des portes-feuille de projets de recherche et développement et proposons une feuille de route pour leur mise en oeuvre. Finalement, en comparant la mise en oeuvre et les résultats d'une méthode de décision multi-critère et d'un marché de prédiction, nous avons montré que ces derniers étaient plus efficaces, tout en offrant des résultats semblables. Nous proposons également un cadre de comparaison des méthodes d'évaluation technologiques, permettant de cerner au mieux les besoins en fonction de facteurs de contingence. En conclusion, notre recherche ouvre un nouveau champ d'application des marchés de prédiction et devrait permettre d'accélérer leur adoption par les entreprises.
Resumo:
Bien que les activités où la compétence est un enjeu (p. ex. : problème académique) prennent souvent place dans des contextes interpersonnels (p. ex. : classe), hiérarchiques (p. ex. : enseignant-e/élèves), et spécifiques en termes de normes et de valeurs (p. ex. : culture), l'étude des buts de performance-le désir de se montrer compétent-e relativement à autrui-a le plus souvent été conduite au seul niveau intrapersonnel. S'appuyant sur le modèle transactionnel du stress et du coping, le modèle circumplexe des comportements interpersonnels, ainsi que sur la théorie de l'élaboration du conflit, la première partie de cette thèse révèle les conséquences interpersonnelles des buts de performance sur la régulation d'un comportement spécifique, à savoir le conflit sociocognitif (c.-à-d., une situation de confrontation avec un intéractant en désaccord) : les buts de performance-approche-le désir d'être meilleur-e qu'autrui-prédisent une régulation du conflit fortement agentique (dominante), soit la validation de son point de vue au détriment de celui de l'intéractant (que nous désignons régulation compétitive) ; alors que les buts de performance-évitement-le désir de ne pas être moins bon-ne qu'autrui-prédisent une régulation du conflit faiblement agentique (soumise), soit l'invalidation de son point de vue au bénéfice de celui de l'intéractant (que nous désignons régulation protective). De plus, les effets susmentionnés augmentent à mesure que l'intéractant est présenté comme supérieurement (vs. similairement) compétent. S'appuyant sur la littérature sur les structures de buts de groupe, et celle sur la socialisation des valeurs, la seconde partie de cette thèse révèle les antécédents interpersonnels des buts de performance, et plus spécifiquement le rôle du superviseur dans la socialisation des buts de performance : les buts de performance-approche d'un superviseur sont positivement associés avec l'émergence au cours du temps des buts de performance-approche de ses subordonnés (particulièrement lorsqu'ils se perçoivent comme compétents) et celle de leurs buts de performance-évitement (particulièrement lorsqu'ils se perçoivent comme incompétents). En outre, ce phénomène consistant en un processus de socialisation, les effets susmentionnés augmentent lorsque l'identification à l'endogroupe des subordonnées augmente, et lorsque l'adhésion aux valeurs culturelles occidentales dominantes (c.-à-d., rehaussement de soi) du superviseur augmente. Dans leur ensemble, ces résultats soulignent la nécessité d'étudier les buts dans leur plenum social, autrement dit, en adoptant une perspective interpersonnelle (c.-à-d., étudier les effets des buts entre les individus), positionnelle (c.-à-d., entre des individus de différentes positions sociales), et idéologique (c.- à-d., entre des individus se conformant à des normes spécifiques et adhérant à des valeurs spécifiques). -- Although competence-relevant activities (e.g., solving an academic problem) are often embedded in interpersonal (e.g., classroom), hierarchical (e.g., teacher/pupils), and norm-/value-specific (e.g., culture) settings, the study of performance goals-the desire to demonstrate competence relative to others-has mostly been conducted at the intrapersonal level alone. Drawing on the transactional model of stress and coping, the circumplex model of interpersonal behaviors, as well as on the conflict elaboration theory, the first part of this thesis reveals the interpersonal consequences of performance goals on the regulation of a specific behavior, namely socio-cognitive conflict (i.e., a situation of confrontation with a disagreeing interactant): Performance-approach goals-the desire to outperform others- predicted a highly agentic (dominant) conflict regulation, that is, the validation of one's point of view at the expense of that of the interactant (which we labeled competitive regulation); whereas performance-avoidance goals-the desire not to be outperformed by others- predicted a poorly agentic (submissive) conflict regulation, that is, the invalidation of one's point of view to the benefit of that of the interactant (which we labeled protective regulation). Furthermore, both the aforementioned effects were found to increase when the interactant was presented as being superiorly (vs. equally) in competence. Drawing on the literature on group goal structure, as well as on research on socialization of supervisors-based values, the second part of this thesis reveals the interpersonal antecedents of performance-based goals endorsement, focusing-more specifically-on the role of group-supervisors in performance goals socialization: Supervisor's performance-approach goals were positively associated with the emergence over time of subordinates' performance-approach (especially when perceiving themselves as competent) and -avoidance goals (especially when perceiving themselves as incompetent). Furthermore, providing evidence that this phenomenon essentially reflects a socialization process, both the aforementioned effects were found to increase as subordinates' in-group identification increased, and as supervisors' adherence to dominant Western values (i.e., self-enhancement values) increased. Taken together, these results advocate the need to study performance goals in their social plenum, that is, adopting an interpersonal (i.e., studying the effects of goals between individuals), positional (i.e., between individuals from different social positions), and ideological (i.e., between individuals following specific norms and endorsing specific values) perspective.
Resumo:
The proportion of population living in or around cites is more important than ever. Urban sprawl and car dependence have taken over the pedestrian-friendly compact city. Environmental problems like air pollution, land waste or noise, and health problems are the result of this still continuing process. The urban planners have to find solutions to these complex problems, and at the same time insure the economic performance of the city and its surroundings. At the same time, an increasing quantity of socio-economic and environmental data is acquired. In order to get a better understanding of the processes and phenomena taking place in the complex urban environment, these data should be analysed. Numerous methods for modelling and simulating such a system exist and are still under development and can be exploited by the urban geographers for improving our understanding of the urban metabolism. Modern and innovative visualisation techniques help in communicating the results of such models and simulations. This thesis covers several methods for analysis, modelling, simulation and visualisation of problems related to urban geography. The analysis of high dimensional socio-economic data using artificial neural network techniques, especially self-organising maps, is showed using two examples at different scales. The problem of spatiotemporal modelling and data representation is treated and some possible solutions are shown. The simulation of urban dynamics and more specifically the traffic due to commuting to work is illustrated using multi-agent micro-simulation techniques. A section on visualisation methods presents cartograms for transforming the geographic space into a feature space, and the distance circle map, a centre-based map representation particularly useful for urban agglomerations. Some issues on the importance of scale in urban analysis and clustering of urban phenomena are exposed. A new approach on how to define urban areas at different scales is developed, and the link with percolation theory established. Fractal statistics, especially the lacunarity measure, and scale laws are used for characterising urban clusters. In a last section, the population evolution is modelled using a model close to the well-established gravity model. The work covers quite a wide range of methods useful in urban geography. Methods should still be developed further and at the same time find their way into the daily work and decision process of urban planners. La part de personnes vivant dans une région urbaine est plus élevé que jamais et continue à croître. L'étalement urbain et la dépendance automobile ont supplanté la ville compacte adaptée aux piétons. La pollution de l'air, le gaspillage du sol, le bruit, et des problèmes de santé pour les habitants en sont la conséquence. Les urbanistes doivent trouver, ensemble avec toute la société, des solutions à ces problèmes complexes. En même temps, il faut assurer la performance économique de la ville et de sa région. Actuellement, une quantité grandissante de données socio-économiques et environnementales est récoltée. Pour mieux comprendre les processus et phénomènes du système complexe "ville", ces données doivent être traitées et analysées. Des nombreuses méthodes pour modéliser et simuler un tel système existent et sont continuellement en développement. Elles peuvent être exploitées par le géographe urbain pour améliorer sa connaissance du métabolisme urbain. Des techniques modernes et innovatrices de visualisation aident dans la communication des résultats de tels modèles et simulations. Cette thèse décrit plusieurs méthodes permettant d'analyser, de modéliser, de simuler et de visualiser des phénomènes urbains. L'analyse de données socio-économiques à très haute dimension à l'aide de réseaux de neurones artificiels, notamment des cartes auto-organisatrices, est montré à travers deux exemples aux échelles différentes. Le problème de modélisation spatio-temporelle et de représentation des données est discuté et quelques ébauches de solutions esquissées. La simulation de la dynamique urbaine, et plus spécifiquement du trafic automobile engendré par les pendulaires est illustrée à l'aide d'une simulation multi-agents. Une section sur les méthodes de visualisation montre des cartes en anamorphoses permettant de transformer l'espace géographique en espace fonctionnel. Un autre type de carte, les cartes circulaires, est présenté. Ce type de carte est particulièrement utile pour les agglomérations urbaines. Quelques questions liées à l'importance de l'échelle dans l'analyse urbaine sont également discutées. Une nouvelle approche pour définir des clusters urbains à des échelles différentes est développée, et le lien avec la théorie de la percolation est établi. Des statistiques fractales, notamment la lacunarité, sont utilisées pour caractériser ces clusters urbains. L'évolution de la population est modélisée à l'aide d'un modèle proche du modèle gravitaire bien connu. Le travail couvre une large panoplie de méthodes utiles en géographie urbaine. Toutefois, il est toujours nécessaire de développer plus loin ces méthodes et en même temps, elles doivent trouver leur chemin dans la vie quotidienne des urbanistes et planificateurs.
Resumo:
The eye is a complex organ, which provides one of our most important senses, sight. The retina is the neuronal component of the eye and represents the connection with the central nervous system for the transmission of the information that leads to image processing. Retinitis pigmentosa (RP) is one of the most common forms of inherited retinal degeneration, in which the primary death of rods, resulting in night blindness, is always followed by the loss of cones, which leads to legal blindness. Clinical and genetic heterogeneity in retinitis pigmentosa is not only due to different mutations in different genes, but also to different effects of the same mutation in different individuals, sometimes even within the same family. My thesis work has been mainly focused on an autosomal dominant form of RP linked to mutations in the PRPF31 gene, which often shows reduced penetrance. Our study has led to the identification of the major regulator of the penetrance of PRPF31 mutations, the CNOT3 protein, and to the characterization of its mechanism of action. Following the same rationale of investigating molecular mechanisms that are responsible for clinical and genetic heterogeneity of retinitis pigmentosa, we studied a recessive form of the disease associated with mutations in the recently-identified gene FAMI61 A, where mutations in the same gene give rise to variable clinical manifestations. Our data have increased the knowledge of the relationship between genotype and phenotype in this form of the disease. Whole genome sequencing technique was also tested as a strategy for disease gene identification in unrelated patients with recessive retinitis pigmentosa and proved to be effective in identifying disease-causing variants that might have otherwise failed to be detected with other screening methods. Finally, for the first time we reported a choroidal tumor among the clinical manifestations of PTEN hamartoma tumor syndrome, a genetic disorder caused by germline mutations of the tumor suppressor gene PTEN. Our study has highlighted the heterogeneity of this choroidal tumor, showing that genetic and/or epigenetic alterations in different genes may contribute to the tumor development and growth. - L'oeil est un organe complexe, à l'origine d'un de nos sens les plus importants, la vue. La rétine est la composante neuronale de l'oeil qui constitue la connexion avec le système nerveux central pour la transmission de l'information et qui conduit à la formation des images. La rétinite pigmentaire (RP) est une des formes les plus courantes de dégénérescence rétinienne héréditaire, dans laquelle la mort primaire de bâtonnets, entraînant la cécité nocturne, est toujours suivie par la perte de cônes qui conduit à la cécité complète. L'hétérogénéité clinique et génétique dans la rétinite pigmentaire n'est pas seulement due aux différentes mutations dans des gènes différents, mais aussi à des effets différents de la même mutation chez des individus différents, parfois même dans la même famille. Mon travail de thèse s'est principalement axé sur une forme autosomique dominante de RP liée à des mutations dans le gène PRPF31, associées souvent à une pénétrance réduite, me conduisant à l'identification et à la caractérisation du mécanisme d'action du régulateur principal de la pénétrance des mutations: la protéine CNOT3. Dans la même logique d'étude des mécanismes moléculaires responsables de l'hétérogénéité clinique et génétique de la RP, nous avons étudié une forme récessive de la maladie associée à des mutations dans le gène récemment identifié FAMI61 A, dont les mutations dans le même gène donnent lieu à des manifestations cliniques différentes. Nos données ont ainsi accru la connaissance de la relation entre le génotype et le phénotype dans cette forme de maladie. La technique de séquençage du génome entier a été ensuite testée en tant que stratégie pour l'identification du gène de la maladie chez les patients atteints de RP récessive. Cette approche a montré son efficacité dans l'identification de variantes pathologiques qui n'auraient pu être détectées avec d'autres méthodes de dépistage. Enfin, pour la première fois, nous avons identifié une tumeur choroïdienne parmi les manifestations cliniques du PTEN hamartoma tumor syndrome, une maladie génétique causée par des mutations germinales du gène suppresseur de tumeur PTEN. Notre étude a mis en évidence l'hétérogénéité de cette tumeur choroïdienne, montrant que les altérations génétiques et/ou épigénétiques dans les différents gènes peuvent contribuer au développement et à la croissance tumorale.
Resumo:
This volume reflects a variegated and fruitful dialogue between classical and medieval philologists and historians of science, philosophy, literature and language as well as of medicine - the diverse range of interests that the history of medicine in the Graeco-Roman world and the medieval West continues to stimulate and draw on. A recurrent theme is the transformation of medical knowledge in different languages, literary forms and cultural milieux. Several papers concern editorial work in progress on unpublished texts, available only in manuscript or early printed editions. Ce recueil met en dialogue des spécialistes des textes médicaux latins de l'Antiquité et du Moyen Âge. Certaines analyses adoptent une approche sociolinguistique, d'autres s'intéressent à des questions de transmission et de réception, d'autres enfin livrent des études sur le lexique médical. Mais toutes concourent à éclairer une histoire culturelle de la médecine qui s'inscrit dans un monde en mutation. With a preface by D. R. Langslow, and contributions by M. Baldin, J. P. Barragán Nieto, P. P. Conde Parrado, D. Crismani, M. Cronier, C. de la Rosa Cubo, A. Ferraces Rodríguez, K.-D. Fischer, P. Gaillard-Seux, A. García González, V. Gitton-Ripoll, G. Haverling, F. Le Blay, B. Maire, G. Marasco, A. I. Martín Ferreira, I. Mazzini, F. Messina, Ph. Mudry, V. Nutton, M. Pardon-Labonnelie, R. Passarella, M. J. Pérez Ibáñez, S. Sconocchia, A. M. Urso, M. E. Vázquez Buján, and H. von Staden.
Resumo:
Phénomène reconnu de longue date, dont les rhéteurs et les écrivains ont même souvent vanté l'efficacité pour réaliser un portrait moral convaincant, la caractérisation langagière des personnages n'a été que peu observée selon une perspective générale, comme si son étude ne pouvait s'envisager en dehors du projet esthétique d'un auteur particulier. Cependant, on peut envisager la caractérisation langagière comme procédant d'une poétique du récit, c'est-à-dire comme un mécanisme du texte narratif, dont certaines constantes peuvent être décrites. L'objectif du présent travail est ainsi de mettre au jour les conditions, tant textuelles que contextuelles, devant être réunies pour que certains aspects des discours rapportés fassent sens en tant qu'éléments de caractérisation. La nature indirecte de ce phénomène demande en effet de porter une attention particulière à ce qui relève des conditions de production et d'interprétation du texte, autrement dit des éléments contextuels que le texte convoque (liés à la langue, aux genres, au « texte » de la culture, etc.) afin de (re)construire par inférence ce qui est dit « sans être dit ». Ainsi la caractérisation langagière reposet- elle sur la reconnaissance d'un rôle thématique endossé par le personnage, rôle défini en partie par certains « habitus » discursifs. Mais il importe également de considérer la caractérisation langagière comme un effet de la textualité. Cela concerne d'abord des unités manipulées par les auteurs (mots, structures syntaxiques, phonologie...). Néanmoins, rien ne se joue sur un unique élément ; au contraire, d'une part, il faut qu'une série de traits s'organisent en un réseau isotope, et cela de la réplique isolée au texte entier ; d'autre part, la caractérisation dérive encore des relations que le discours d'un personnage entretient avec des discours avoisinants, en premier lieu celui du narrateur. Se concentrant sur des oeuvres comiques ou satiriques des XVIIe et XVIIIe siècles, l'approche proposée ici veut également tenir compte d'une tradition rhétorique et poétique qui associe portrait moral et parole représentée, tradition encore très présente dans un tel corpus, qui a par ailleurs l'avantage de laisser entrer dans le monde de la fiction des personnages de toutes conditions, dotés de leurs langages spécifiques.
Resumo:
The aquatic environment is exposed continuously and increasingly to chemical substances such as pharmaceuticals. These medical compounds are released into the environment after having being consumed and body-excreted by patients. Pharmaceutical residues are synthetic molecules that are not always removed by traditional sewage treatment processes and thus escape degradation. Among pharmaceuticals that escape sewage treatment plants (STPs), the anticancer drugs were measured in STP effluents and natural waters. In the aquatic environment, their long-term effects at low concentrations are sparsely known on non-target species. Tamoxifen is an anticancer drug that is widely prescribed worldwide for the prevention and treatment of hormone receptor-positive breast cancers. Two of its metabolites, i.e., endoxifen and 4-hydroxy- tamoxifen (4OHTam), have high pharmacological potency in vivo and such as tamoxifen, they are excreted via faeces by patients. Tamoxifen was measured in STP effluents and natural waters but, to the best of our knowledge, its metabolites concentrations in waters have never been reported. Imatinib is another and recent anticancer compound that targets specific tumour cells. This pharmaceutical is also body excreted and because of its increasing use in cancer treatment, imatinib may reach the natural water. The effects of tamoxifen and imatinib are unknown upon more than one generation of aquatic species. And the effects of 4OHTam, endoxifen have never been studied in ecotoxicology so far. The aims of this thesis were threefold. First, the sensitivity of D. pulex exposed to tamoxifen, 4OHTam, endoxifen or imatinib was assessed using ecotoxicological experiments. Ecotoxicology is the science that considers the toxic effects of natural or synthetic substances, such as pharmaceuticals, on organisms, populations, community and ecosystem. Acute and multigenerational (2-4 generations) tests were performed on daphnids considering several studied endpoints, such as immobilisation, size, reproduction, viability and intrinsic rate of natural increase. Additional prospective assays were designed to evaluate whether 1) low concentrations of tamoxifen and 4OHTam were able to induce toxic effects when used in combination, and 2) daphnids were able to recover when offspring were withdrawn from solutions carrying the pharmaceutical. Second, the stability of tamoxifen, 4OHTam and endoxifen in incubation medium was evaluated in solution exempted from daphnids. Because the nominal concentrations of tamoxifen, 4OHTam and endoxifen did not correspond to the measured, we provide a predictive method to estimate the concentrations of these chemicals during long-term ecotoxicological tests. Finally, changes in protein expressions were analysed in D. pulex exposed 2 or 7 seven days to tamoxifen using ecotoxicoproteomic experiments with a shot-gun approach inducing a peptide fractionation step. Our results show that tamoxifen, 4OHTam and endoxifen induced adverse effects in D. pulex at environmentally relevant concentrations. At very low concentrations, these molecules displayed unusual and teratogenic effects because morphological abnormalities were observed in offspring, such as thick and short antennas, curved spines, premature neonates and aborted eggs. Tamoxifen was the most toxic compound among the test chemicals, followed by 4OHTam, endoxifen and imatinib. Tamoxifen no-observed effect concentrations (NOECs) that were calculated for size, reproduction and intrinsic rate were below or in the range of the concentrations measured in natural waters, i.e., between 0.12 µg/L and 0.67 µg/L. For instance, the tamoxifen NOECs that were calculated for reproduction were between 0.67 and 0.72 µg/L, whereas the NOEC was < 0.15 µg/L when based on morphological abnormalities. The NOECs of 4OHTam were higher but still in the same order of magnitude as tamoxifen environmental concentrations, with a value of 1.48 µg/L. Endoxifen NOEC for the intrinsic rate of natural increase (r) and the reproduction were 0.4 and 4.3 µg/L, respectively. Daphnids that were withdrawn from tamoxifen and 4OHTam were not able to recover. Also, the reproduction of D. pulex was reduced when the treated animals were exposed to the combination of tamoxifen and 4OHTam while no effects were observed when these chemicals were tested individually at the same concentration. Among the anticancer drugs that were tested during this thesis, imatinib was the less toxic molecule towards D. pulex. No effects on size and reproduction were observed within two generations, except for the first whose reproduction decreased at the highest test concentration, i.e., 626 µg/L. Our results also underline the need to use measured or predicted concentrations instead of the nominal during aquatic experiments, particularly when lipophilic molecules are tested. Indeed, notable differences between nominal (i.e., theoretical) and measured concentrations were found with tamoxifen, 4OHTam and endoxifen at all test concentrations. A cost and time sustainable method was proposed to predict the test exposure levels of these chemicals during long-term experiments. This predictive method was efficient particularly for low concentrations, which corresponded to the test concentrations in multigenerational tests. In the ecotoxicoproteomic experiments a total of 3940 proteins were identified and quantified in D. pulex exposed to tamoxifen. These results are currently the largest dataset from D. pulex that is published and the results of proteomic analyses are available for the scientific community. Among these 3940 proteins, 189 were significantly different from controls. After protein annotation, we assumed that treated daphnids with tamoxifen had shifted cost-energy functions, such as reproduction, to maintain their basic metabolism necessary to survive. This metabolic cost hypothesis was supported by the presence of proteins involved in oxidative stress. Biomarkers for early detection of tamoxifen harmful effects on D. pulex were not discovered but the proteins of the vitellogenin-2 family (E9H8K5) and the ryanodine receptor (E9FTU9) are promising potential biomarkers because their expression was already modified after 2 days of treatment. In this thesis, the effects of tamoxifen, 4OHTam and endoxifen on daphnids raise questions about the potential impact of tamoxifen and 4OHTam in other aquatic ecosystems, and therefore, about metabolites in ecotoxicology. Because the NOECs were environmentally relevant, these results suggest that tamoxifen and 4OHTam may be interesting pharmaceuticals to consider in risk assessment. Our findings also emphasize the importance of performing long-term experiments and of considering multi-endpoints instead of the standard reproductive endpoint. Finally, we open the discussion about the importance to measure test exposures or not, during ecotoxicological studies. -- Les milieux aquatiques sont exposés continuellement à un nombre croissant de substances chimiques, notamment les médicaments issus de la médecine vétérinaire et humaine. Chez les patients, les substances administrées sont utilisées par le corps avant d'être éliminées par l'intermédiaire des excrétas dans le système d'eaux usées de la ville. Ces eaux rejoignent ensuite une station de traitement afin d'y éliminer les déchets. Dans le cas des molécules chimiques, il arrive que les processus de traitement d'eaux usées ne soient pas suffisamment efficaces et que ces molécules ne soient pas dégradées. Elles sont alors libérées dans le milieu aquatique avec les effluents de la station d'épuration. Une fois dans l'environnement, ces résidus de médicaments sont susceptibles d'induire des effets sur la faune et la flore aquatique, dont les conséquences à long terme et à faibles concentrations sont peu connues. Les anticancéreux sont une famille de médicaments qui peuvent échapper aux traitements des stations d'épuration et qui sont retrouvées dans le milieu aquatique naturel. Parmi ces substances, le tamoxifen est une molécule utilisée dans le monde entier pour prévenir et traiter les cancers hormonaux dépendant du sein, notamment. Une fois ingéré, le tamoxifen est transformé par le foie en métabolites dont deux d'entre eux, le 4-hydroxy-tamoxifen (4OHTam) et l'endoxifen, possèdent un affinité pour les récepteurs aux estrogènes et une efficacité sur les cellules tumorales supérieure au tamoxifen lui- même. Tout comme la molécule mère, ces métabolites sont principalement éliminés par l'intermédiaire des fèces. Le tamoxifen a déjà été mesuré dans les effluents de stations d'épuration et dans les eaux naturelles, mais aucune valeur n'a été reportée pour ses métabolites jusqu'à présent. Un autre anticancéreux, également éliminé par voie biliaire et susceptible d'atteindre l'environnement, est l'imatinib. Cette récente molécule a révolutionné le traitement et la survie des patients souffrant de leucémie myéloïde chronique et de tumeur stromales gastrointestinales. Les effets du tamoxifen et de l'imatinib sur plusieurs générations d'organismes aquatiques, tels que les microcrustacés Daphnia, sont inconnus et le 4OHTam et l'endoxifen n'ont même jamais été testés en écotoxicologie. Cette thèse s'est articulée autour de trois objectifs principaux. Premièrement, la sensibilité des D. pulex exposés au tamoxifen, 4OHTam, endoxifen et imatinib a été évaluée par l'intermédiaire de tests aigus et de tests sur deux à quatre générations. La mobilité, la taille, la reproduction, la viabilité et la croissance potentielle de la population ont été relevées au cours de ces expériences. Des tests supplémentaires, à but prospectifs, ont également été réalisés afin d'évaluer 1) la capacité de récupération des daphnies, lorsque leurs descendants ont été placés dans un milieu exempté de tamoxifen ou de 4OHTam, 2) les effets chez les daphnies exposées à une solution contenant de faibles concentration de tamoxifen et de 4OHTam mélangés. Le deuxième objectif a été d'évaluer la stabilité du tamoxifen, 4OHTam et endoxifen dilué dans le milieu des daphnies. Après analyses, les concentrations mesurées ne correspondaient pas aux concentrations nominales (c.-à-d., théoriques) et il a été nécessaire de développer une méthode efficace de prédiction des niveaux d'exposition lors de tests de longue durée réalisés avec ces trois molécules. Finalement, des changements dans l'expression des protéines chez des daphnies exposées au tamoxifen ont été investigués par l'intermédiaire d'expériences écotoxicoprotéomiques avec une approche dite de shot-gun avec une étape de fractionnement des protéines. Les résultats obtenus dans cette thèse montrent que le tamoxifen, le 4OHTam et l'endoxifen induisent des effets indésirables chez les daphnies à des niveaux d'exposition proches ou identiques aux concentrations du tamoxifen mesurées dans l'environnement, c'est-à-dire 0.12 et 0.67 µg/L de tamoxifen. Ces molécules ont induit des effets inhabituels tels que la production de : nouveau-nés anormaux, avec des antennes et des queues déformées, des prématurés et des oeufs avortés. Le tamoxifen fut la molécule la plus toxique pour les D. pulex suivie du 4OHTam, de l'endoxifen et enfin de l'imatinib. Lors des expériences sur plusieurs générations, les concentrations n'ayant statistiquement pas d'effet (c.à.d. NOEC en anglais) sur la taille, la reproduction et la croissance intrinsèque de la population étaient du même ordre de grandeur que les concentrations environnementales du tamoxifen. Par exemple, les NOECs du tamoxifen calculées pour la reproduction étaient de 0.67 et 0.72 µg/L, tandis que celle calculée sur la base des anomalies chez les nouveau-nés était < 0.15 µg/L. Les NOECs du 4OHTam se situaient entre 0.16 et 1.48 µg/L et celles de l'endoxifen pour la croissance intrinsèque de la population, ainsi que pour la reproduction, étaient de 0.4 et 4.3 µg/L, respectivement. Dans l'expérience basée sur la récupération des daphnies, la taille et la reproduction ont diminué bien que la descendance fût placée dans un milieu sans substances chimiques. Les daphnies exposées au mélange de tamoxifen et de 4OHTam ont produit moins de nouveau-nés que les contrôles, alors que ces concentrations n'ont pas induit d'effets lorsque testées individuellement. Finalement, l'imatinib n'a pas montré d'effets sur les deux générations testées. Seule la première génération exposée à la plus haute concentration (626 µg/L) a montré une diminution de la reproduction. Les résultats obtenus lors de l'évaluation de la stabilité du tamoxifen, 4OHTam et endoxifen dans le milieu des daphnies ont souligné l'importance d'utiliser des concentrations mesurées ou prédites en écotoxicologie. En effet, des différences notables entre concentrations nominales et mesurées ont été observées à toutes les concentrations et l'hypothèse d'un phénomène d'adsorption sur le verre des récipients a été posée. De ce fait, il a été nécessaire d'élaborer une méthode prédictive efficace et acceptable, en terme de temps et de coûts. Une régression polynomiale basée sur des concentrations mesurées et nominales a permis de prédire avec efficacité les faibles niveaux d'exposition utilisés lors d'expériences écotoxicologiques à long terme, sur plusieurs générations. Suite aux expériences d'écotoxicoprotéomiques, un total de 3940 protéines ont été identifiées et quantifiées chez des daphnies exposées au tamoxifen. Ce nombre est actuellement la plus large série de données publiées et mises à disposition pour la communauté scientifique. Parmi ces protéines, 189 sont significatives et possiblement reliées à des processus de reproduction et de stress. Sur cette base, nous avons émis l'hypothèse que les individus subissant un stress, lié à l'exposition au tamoxifen, ont utilisé leur énergie de base pour favoriser leur survie plutôt que la reproduction. Enfin, la détermination de bio-marqueurs exprimant des dommages précoces des daphnies exposées au tamoxifen n'a pas abouti en tant que telle, mais des protéines prometteuses, telle que la famille de viellogenin-2 (E9H8K5) et le récepteur à la ryanodine (E9FTU9), ont été exprimées après deux jours d'exposition déjà. Ces protéines pourraient faire l'objet d'investigations écotoxicoprotéomiques futures. Les résultats de cette thèse posent certaines questions quant au risque du tamoxifen, du 4OHTam et de l'endoxifen sur la faune et la flore aquatique et plus particulièrement sur les anticancéreux présents dans l'environnement. Les effets toxiques de ces molécules ont été observés à des concentrations environnementales et sur plusieurs générations. La question de considérer les métabolites, et ainsi les pro-médicaments, en écotoxicologie est soulevée, notamment parce que ces molécules peuvent être plus actives et efficaces que la molécule mère. Les expériences chroniques, sur plusieurs générations sont également à favoriser car elles offrent un meilleur reflet de la réalité environnementale que des essais aigus ou d'une génération. L'utilisation de la protéomique permet d'agrandir les connaissances sur les effets des médicaments à un niveau inférieur de l'organisation biologique et ainsi, de mieux comprendre de potentiels mécanismes d'action ou de déterminer de potentiels biomarqueurs. Finalement, il semble important de discuter de l'opportunité de mesurer les concentrations qui sont testées en écotoxicologie afin de ne pas sous-estimer le risque pour la faune et la flore aquatique.
Resumo:
RésuméLes champignons sont impliqués dans les cycles biogéochimiques de différentes manières. En particulier, ils sont reconnus en tant qu'acteurs clés dans la dégradation de la matière organique, comme fournisseurs d'éléments nutritifs via l'altération des minéraux mais aussi comme grands producteurs d'acide oxalique et de complexes oxalo-métalliques. Toutefois, peu de choses sont connues quant à leur contribution à la genèse d'autres types de minéraux, tel que le carbonate de calcium (CaCO3). Le CaCO3 est un minéral ubiquiste dans de nombreux écosystèmes et il joue un rôle essentiel dans les cycles biogéochimiques du carbone (C) et du calcium (Ca). Le CaCO3 peut être d'origine physico-chimique ou biogénique et de nombreux organismes sont connus pour contrôler ou induire sa biominéralisation. Les champignons ont souvent été soupçonnés d'être impliqué dans ce processus, cependant il existe très peu d'informations pour étayer cette hypothèse.Cette thèse a eu pour but l'étude de cet aspect négligé de l'impact des champignons dans les cycles biogéochimiques, par l'exploration de leur implication potentielle dans la formation d'un type particulier de CaCO3 secondaires observés dans les sols et dans les grottes des environnements calcaires. Dans les grottes, ces dépôts sont appelés moonmilk, alors que dans les sols on les appelle calcite en aiguilles. Cependant ces deux descriptions correspondent en fait au même assemblage microscopique de deux habitus particulier de la calcite: la calcite en aiguilles (au sens strict du terme cette fois-ci) et les nanofibres. Ces deux éléments sont des habitus aciculaires de la calcite, mais présentent des dimensions différentes. Leur origine, physico-chimique ou biologique, est l'objet de débats intenses depuis plusieurs années déjà.L'observation d'échantillons environnementaux avec des techniques de microscopie (microscopie électronique et micromorphologie), ainsi que de la microanalyse EDX, ont démontré plusieurs relations intéressantes entre la calcite en aiguilles, les nanofibres et des éléments organiques. Premièrement, il est montré que les nanofibres peuvent être organiques ou minérales. Deuxièmement, la calcite en aiguilles et les nanofibres présentent de fortes analogies avec des structures hyphales, ce qui permet de confirmer l'hypothèse de leur origine fongique. En outre, des expériences en laboratoire ont confirmé l'origine fongique des nanofibres, par des digestions enzymatiques d'hyphes fongiques. En effet, des structures à base de nanofibres, similaires à celles observées dans des échantillons naturels, ont pu être produites par cette approche. Finalement, des enrichissements en calcium ont été mesurés dans les parois des hyphes et dans des inclusions intrahyphales provenant d'échantillons naturels de rhizomorphes. Ces résultats suggèrent une implication de la séquestration de calcium dans la formation de la calcite en aiguilles et/ou des nanofibres.Plusieurs aspects restent à élucider, en particulier la compréhension des processus physiologiques impliqués dans la nucléation de calcite dans les hyphes fongiques. Cependant, les résultats obtenus dans cette thèse ont permis de confirmer l'implication des champignons dans la formation de la calcite en aiguilles et des nanofibres. Ces découvertes sont d'une grande importance dans les cycles biogéochimiques puisqu'ils apportent de nouveaux éléments dans le cycle couplé C-Ca. Classiquement, les champignons sont considérés comme étant impliqués principalement dans la minéralisation de la matière organique et dans l'altération minérale. Cette étude démontre que les champignons doivent aussi être pris en compte en tant qu'agents majeurs de la genèse de minéraux, en particulier de CaCO3. Ceci représente une toute nouvelle perspective en géomycologie quant à la participation des champignons au cycle biologique du C. En effet, la présence de ces précipitations de CaCO3 secondaires représente un court-circuit dans le cycle biologique du C puisque du C inorganique du sol se retrouve piégé dans de la calcite plutôt que d'être retourné dans l'atmosphère.AbstractFungi are known to be involved in biogeochemical cycles in numerous ways. In particular, they are recognized as key players in organic matter recycling, as nutrient suppliers via mineral weathering, as well as large producers of oxalic acid and metal-oxalate. However, little is known about their contribution to the genesis of other types of minerals such as calcium carbonate (CaCO3). Yet, CaC03 are ubiquitous minerals in many ecosystems and play an essential role in the biogeochemical cycles of both carbon (C) and calcium (Ca). CaC03 may be physicochemical or biogenic in origin and numerous organisms have been recognized to control or induce calcite biomineralization. While fungi have often been suspected to be involved in this process, only scarce information support this hypothesis.This Ph.D. thesis aims at investigating this disregarded aspect of fungal impact on biogeochemical cycles by exploring their possible implication in the formation of a particular type of secondary CaC03 deposit ubiquitously observed in soils and caves from calcareous environments. In caves, these deposits are known as moonmilk, whereas in soils, they are known as Needle Fibre Calcite (NFC - sensu lato). However, they both correspond to the same microscopic assemblage of two distinct and unusual habits of calcite: NFC {sensu stricto) and nanofibres. Both features are acicular habits of calcite displaying different dimensions. Whether these habits are physicochemical or biogenic in origin has been under discussion for a long time.Observations of natural samples using microscopic techniques (electron microscopy and micromorphology) and EDX microanalyses have demonstrated several interesting relationships between NFC, nanofibres, and organic features. First, it has shown that nanofibres can be either organic or minera! in nature. Second, both nanofibres and NFC display strong structural analogies with fungal hyphal features, supporting their fungal origin. Furthermore, laboratory experiments have confirmed the fungal origin of nanofibres through an enzymatic digestion of fungal hyphae. Indeed, structures made of nanofibres with similar features as those observed in natural samples have been produced. Finally, calcium enrichments have been measured in both cell walls and intrahyphal inclusions of hyphae from rhizomorphs sampled in the natural environment. These results point out an involvement of calcium sequestration in nanofibres and/or NFC genesis.Several aspects need further investigation, in particular the understanding of the physiological processes involved in hyphal calcite nucleation. However, the results obtained during this study have allowed the confirmation of the implication of fungi in the formation of both NFC and nanofibres. These findings are of great importance regarding global biogeochemical cycles as they bring new insights into the coupled C and Ca cycles. Conventionally, fungi are considered to be involved in organic matter mineralization and mineral weathering. In this study, we demonstrate that they must also be considered as major agents in mineral genesis, in particular CaC03. This is a completely new perspective in geomycology regarding the role of fungi in the short-term (or biological) C cycle. Indeed, the presence of these secondary CaC03 precipitations represents a bypass in the short- term carbon cycle, as soil inorganic C is not readily returned to the atmosphere.
Resumo:
This dissertation analyses public opinion towards the welfare state across 29 European countries. Based on an interdisciplinary approach combining social psychological, sociological, and public opinion approaches to political opinion formation, it investigates how social position and shared beliefs shape perceived legitimacy of welfare institutions, and how social contexts impact on the processes of opinion formation. Drawing on social representations theory, as well as socialization and self-interest approaches, the dissertation analyses the role of social position in lay support for institutional solidarity. Normative beliefs-defined as preferred views regarding the organisation of social relations-mediate the effect of social position on welfare support. In addition, drawing on public opinion literature, the dissertation analyses opinion formation as a function of country-level structural (e.g., level of social spending, unemployment) and ideological factors (e.g., level of meritocracy). The dissertation comprises two theoretical and four empirical chapters. Three of the empirical chapters use data from the European Social Survey 2008. Using multilevel and typological approaches, the dissertation contributes to welfare attitude literature by showing that normative beliefs, such as distrust or egalitarianism, function as underlying mechanisms that link social position to policy attitudes (Chapter 3), and that characteristics of the national contexts influence the processes of political opinion formation (Chapters 3 and 4). Chapter 5 proposes and predicts a typology of the relationship between attitudes towards solidarity and attitudes towards control, reflecting the two central domains of government intervention. Finally, Chapter 6 examines welfare support in the realm of action and social protest, using data from a survey on Spanish Indigados activists. The findings of this dissertation inform contemporary debates about welfare state legitimacy and retrenchment. - Cette thèse avait pour but d'analyser l'opinion publique envers l'Etat social dans 29 pays européens. Basée sur une approche interdisciplinaire qui combine des perspectives psycho-sociales, sociologiques et d'opinion publique sur la formation d'opinion politique, la thèse étudie comment la position sociale et les croyances partagées façonnent la légitimité perçue des institutions de l'Etat social, et comment les contextes sociaux influencent les processus de formation d'opinion. Basée sur la théorie des représentations sociales, ainsi qu'une approche de socialisation et d'intérêt propre, cette thèse analyse le rôle des positions sociales dans le soutien envers la solidarité institutionnelle. Les croyances normatives-définies comme les visions préférées de l'organisation des rapports sociaux-médiatisent l'effet de la position sociale sur le soutien pour l'Etat social. De plus, s'inspirant de la littérature sur l'opinion publique, la thèse analyse la formation d'opinion en fonction des facteurs structurels (ex. le taux de dépenses sociales, le chômage) et idéologiques (ex. le degré de méritocratie). Cette thèse est composée de deux chapitres théoriques et quatre chapitres empiriques. Trois chapitres empiriques utilisent des données provenant de l'enquête European Social Survey 2008. Appliquant des approches multi-niveux et typoloqiques, la thèse contribue à la littérature sur les attitudes envers l'Etat social en montrant que les croyances normatives, telles que la méfiance ou l'égalitarisme, fonctionnent comme des mécanismes sous-jacents qui relient la position sociale aux attitudes politiques (Chapitre 3), et que les caractéristiques des contextes nationaux influencent les processus de formation d'opinion politique (Chapitres 3 et 4). Le chapitre 5 propose et prédit une typologie sur le rapport entre les attitudes envers la solidarité et celles envers le contrôle, renvoyant à deux domaines centraux de régulation étatique. Enfin, le chapitre 6 examine le soutien à l'Etat social dans le domaine de l'action protestataire, utilisant des données d'une enquête menée auprès des militants espagnols du mouvement des Indignés. Les résultats de cette thèse apportent des éléments qui éclairent les débats contemporains sur la légitimité de l'Etat social et son démantèlement.
Resumo:
Mononuclear phagocytes are essential for the innate response to pathogens and for the repair of injured tissue. The cells - which can be broadly divided into circulating monocytes and tissue-resident macrophages and dendritic cells - are selectively equipped to protect the host by mediating pleiotropic and tissue-specific functions. The properties of some mononuclear phagocytes, however, also contribute to the development and the progression of inflammatory diseases. Consequently, current research investigates mononuclear phagocytes into greater detail with the aim to clarify their contributions to pathophysiologic inflammation. Recent studies indicate that circulating monocytes can be divided into distinct populations, which differ in their tissue tropism and functional commitment. Also, tissue macrophages and dendritic cells have been found to adopt context-dependent phenotypes, which can range from "pro-" to "anti-" inflammatory. These findings have markedly contributed to our understanding of the functional heterogeneity of mononuclear phagocyte populations. Yet, in many cases, the factors that control the quantity and/or quality of phagocyte responses in vivo remain largely unknown. The goal of this thesis was to identify cell endogenous and cell exogenous factors that dictate the fate of mononuclear phagocyte populations. To this end we made use of the recent identification of phenotypic markers, which permit to track mononuclear cell types and their lineage precursors. A main approach consisted to define candidate regulatory factors of certain types of mononuclear phagocytes and then to manipulate the expression of these factors in mice so as to address their functions and causal contributions on mononuclear phagocyte lineages in vivo. Human patient material was further used to validate findings. First, we investigated a microRNA and a transcription factor as candidate cell endogenous co- regulators of monocyte subset responses. Second, we studied a tumor-derived hormone as a candidate exogenous factor that amplifies the production of a population of mononuclear phagocytes with tumor-promoting functions. The endogenous and exogenous factors identified in this research appear to act as effective regulators of mononuclear phagocyte responses in vivo and thus may be exploited in future therapeutic approaches to regulate disease-associated inflammation. - Les phagocytes mononucléaires sont essentiels pour la réponse innée aux pathogènes et pour la réparation des tissus lésés. Ces cellules - qui peuvent être largement divisées en deux groupes, les monocytes circulant dans le sang et les macrophages et cellules dendritiques résidant dans les tissus - sont capables de protéger l'hôte en exerçant des fonctions pléiotropiques. Cependant, les propriétés de certains phagocytes mononucléaires contribuent également au développement et à la progression des maladies inflammatoires. Par conséquent, la recherche actuelle étudie les phagocytes mononucléaires plus en détail afin de clarifier leurs contributions à l'inflammation pathophysiologique. Des études récentes indiquent que les monocytes circulants peuvent être divisés en populations distinctes, qui diffèrent dans leur tropisme tissulaire et dans leurs fonctions biologiques. En outre, les macrophages et les cellules dendritiques peuvent adopter des phénotypes dépendants de l'environnement dans lequel ils se trouvent; ces phénotypes peuvent aller du type "pro-" au type "anti-" inflammatoire. Ces récentes découvertes ont contribué à notre compréhension sur l'hétérogénéité fonctionnelle des phagocytes mononucléaires. Pourtant, dans de nombreux cas, les facteurs qui contrôlent la quantité et/ou la qualité des réponses produites par ces cellules restent encore largement inconnus. L'objectif de cette thèse a consisté à identifier de nouveaux facteurs (endogènes ou exogènes) qui contrôlent les phagocytes mononucléaires. Dans ce but, nous avons fait usage de l'identification récente de marqueurs qui permettent d'identifier différents types de phagocytes mononucléaires ainsi que des cellules (souches) dont ils sont issus. Notre approche a consisté à définir des facteurs candidats qui pourraient contrôler certains phagocytes mononucléaires, puis à manipuler l'expression de ces facteurs chez la souris de manière à tester leurs fonctions et leur contributions in vivo. Nous avons également utilisé des échantillons biologiques de patients pour vérifier nos résultats chez l'homme. Tout d'abord, nous avons étudié un microARN et un facteur de transcription pour déterminer si ces deux facteurs opèrent en tant que co-régulateurs d'un certain type de monocytes. Deuxièmement, nous avons considéré une hormone produite par certaines tumeurs afin d'examiner son rôle dans la production d'une population de macrophages qui favorisent la progression des tumeurs. Les facteurs endogènes et exogènes identifiés dans cette recherche semblent agir comme régulateurs dominants de réponses produites par certains phagocytes mononucléaires et pourraient donc être exploités dans de futures approches thérapeutiques afin de contrôler les réponses immunitaires inflammatoires associées a certaines maladies.
Resumo:
Ces dernières années, de nombreuses recherches ont mis en évidence les effets toxiques des micropolluants organiques pour les espèces de nos lacs et rivières. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, alors que les organismes sont exposés tous les jours à des milliers de substances en mélange. Or les effets de ces cocktails ne sont pas négligeables. Cette thèse de doctorat s'est ainsi intéressée aux modèles permettant de prédire le risque environnemental de ces cocktails pour le milieu aquatique. Le principal objectif a été d'évaluer le risque écologique des mélanges de substances chimiques mesurées dans le Léman, mais aussi d'apporter un regard critique sur les méthodologies utilisées afin de proposer certaines adaptations pour une meilleure estimation du risque. Dans la première partie de ce travail, le risque des mélanges de pesticides et médicaments pour le Rhône et pour le Léman a été établi en utilisant des approches envisagées notamment dans la législation européenne. Il s'agit d'approches de « screening », c'est-à-dire permettant une évaluation générale du risque des mélanges. Une telle approche permet de mettre en évidence les substances les plus problématiques, c'est-à-dire contribuant le plus à la toxicité du mélange. Dans notre cas, il s'agit essentiellement de 4 pesticides. L'étude met également en évidence que toutes les substances, même en trace infime, contribuent à l'effet du mélange. Cette constatation a des implications en terme de gestion de l'environnement. En effet, ceci implique qu'il faut réduire toutes les sources de polluants, et pas seulement les plus problématiques. Mais l'approche proposée présente également un biais important au niveau conceptuel, ce qui rend son utilisation discutable, en dehors d'un screening, et nécessiterait une adaptation au niveau des facteurs de sécurité employés. Dans une deuxième partie, l'étude s'est portée sur l'utilisation des modèles de mélanges dans le calcul de risque environnemental. En effet, les modèles de mélanges ont été développés et validés espèce par espèce, et non pour une évaluation sur l'écosystème en entier. Leur utilisation devrait donc passer par un calcul par espèce, ce qui est rarement fait dû au manque de données écotoxicologiques à disposition. Le but a été donc de comparer, avec des valeurs générées aléatoirement, le calcul de risque effectué selon une méthode rigoureuse, espèce par espèce, avec celui effectué classiquement où les modèles sont appliqués sur l'ensemble de la communauté sans tenir compte des variations inter-espèces. Les résultats sont dans la majorité des cas similaires, ce qui valide l'approche utilisée traditionnellement. En revanche, ce travail a permis de déterminer certains cas où l'application classique peut conduire à une sous- ou sur-estimation du risque. Enfin, une dernière partie de cette thèse s'est intéressée à l'influence que les cocktails de micropolluants ont pu avoir sur les communautés in situ. Pour ce faire, une approche en deux temps a été adoptée. Tout d'abord la toxicité de quatorze herbicides détectés dans le Léman a été déterminée. Sur la période étudiée, de 2004 à 2009, cette toxicité due aux herbicides a diminué, passant de 4% d'espèces affectées à moins de 1%. Ensuite, la question était de savoir si cette diminution de toxicité avait un impact sur le développement de certaines espèces au sein de la communauté des algues. Pour ce faire, l'utilisation statistique a permis d'isoler d'autres facteurs pouvant avoir une influence sur la flore, comme la température de l'eau ou la présence de phosphates, et ainsi de constater quelles espèces se sont révélées avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps. Fait intéressant, une partie d'entre-elles avait déjà montré des comportements similaires dans des études en mésocosmes. En conclusion, ce travail montre qu'il existe des modèles robustes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques, et qu'ils peuvent être utilisés pour expliquer le rôle des substances dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application. - Depuis plusieurs années, les risques que posent les micropolluants organiques pour le milieu aquatique préoccupent grandement les scientifiques ainsi que notre société. En effet, de nombreuses recherches ont mis en évidence les effets toxiques que peuvent avoir ces substances chimiques sur les espèces de nos lacs et rivières, quand elles se retrouvent exposées à des concentrations aiguës ou chroniques. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, c'est à dire considérées séparément. Actuellement, il en est de même dans les procédures de régulation européennes, concernant la partie évaluation du risque pour l'environnement d'une substance. Or, les organismes sont exposés tous les jours à des milliers de substances en mélange, et les effets de ces "cocktails" ne sont pas négligeables. L'évaluation du risque écologique que pose ces mélanges de substances doit donc être abordé par de la manière la plus appropriée et la plus fiable possible. Dans la première partie de cette thèse, nous nous sommes intéressés aux méthodes actuellement envisagées à être intégrées dans les législations européennes pour l'évaluation du risque des mélanges pour le milieu aquatique. Ces méthodes sont basées sur le modèle d'addition des concentrations, avec l'utilisation des valeurs de concentrations des substances estimées sans effet dans le milieu (PNEC), ou à partir des valeurs des concentrations d'effet (CE50) sur certaines espèces d'un niveau trophique avec la prise en compte de facteurs de sécurité. Nous avons appliqué ces méthodes à deux cas spécifiques, le lac Léman et le Rhône situés en Suisse, et discuté les résultats de ces applications. Ces premières étapes d'évaluation ont montré que le risque des mélanges pour ces cas d'étude atteint rapidement une valeur au dessus d'un seuil critique. Cette valeur atteinte est généralement due à deux ou trois substances principales. Les procédures proposées permettent donc d'identifier les substances les plus problématiques pour lesquelles des mesures de gestion, telles que la réduction de leur entrée dans le milieu aquatique, devraient être envisagées. Cependant, nous avons également constaté que le niveau de risque associé à ces mélanges de substances n'est pas négligeable, même sans tenir compte de ces substances principales. En effet, l'accumulation des substances, même en traces infimes, atteint un seuil critique, ce qui devient plus difficile en terme de gestion du risque. En outre, nous avons souligné un manque de fiabilité dans ces procédures, qui peuvent conduire à des résultats contradictoires en terme de risque. Ceci est lié à l'incompatibilité des facteurs de sécurité utilisés dans les différentes méthodes. Dans la deuxième partie de la thèse, nous avons étudié la fiabilité de méthodes plus avancées dans la prédiction de l'effet des mélanges pour les communautés évoluant dans le système aquatique. Ces méthodes reposent sur le modèle d'addition des concentrations (CA) ou d'addition des réponses (RA) appliqués sur les courbes de distribution de la sensibilité des espèces (SSD) aux substances. En effet, les modèles de mélanges ont été développés et validés pour être appliqués espèce par espèce, et non pas sur plusieurs espèces agrégées simultanément dans les courbes SSD. Nous avons ainsi proposé une procédure plus rigoureuse, pour l'évaluation du risque d'un mélange, qui serait d'appliquer d'abord les modèles CA ou RA à chaque espèce séparément, et, dans une deuxième étape, combiner les résultats afin d'établir une courbe SSD du mélange. Malheureusement, cette méthode n'est pas applicable dans la plupart des cas, car elle nécessite trop de données généralement indisponibles. Par conséquent, nous avons comparé, avec des valeurs générées aléatoirement, le calcul de risque effectué selon cette méthode plus rigoureuse, avec celle effectuée traditionnellement, afin de caractériser la robustesse de cette approche qui consiste à appliquer les modèles de mélange sur les courbes SSD. Nos résultats ont montré que l'utilisation de CA directement sur les SSDs peut conduire à une sous-estimation de la concentration du mélange affectant 5 % ou 50% des espèces, en particulier lorsque les substances présentent un grand écart- type dans leur distribution de la sensibilité des espèces. L'application du modèle RA peut quant à lui conduire à une sur- ou sous-estimations, principalement en fonction de la pente des courbes dose- réponse de chaque espèce composant les SSDs. La sous-estimation avec RA devient potentiellement importante lorsque le rapport entre la EC50 et la EC10 de la courbe dose-réponse des espèces est plus petit que 100. Toutefois, la plupart des substances, selon des cas réels, présentent des données d' écotoxicité qui font que le risque du mélange calculé par la méthode des modèles appliqués directement sur les SSDs reste cohérent et surestimerait plutôt légèrement le risque. Ces résultats valident ainsi l'approche utilisée traditionnellement. Néanmoins, il faut garder à l'esprit cette source d'erreur lorsqu'on procède à une évaluation du risque d'un mélange avec cette méthode traditionnelle, en particulier quand les SSD présentent une distribution des données en dehors des limites déterminées dans cette étude. Enfin, dans la dernière partie de cette thèse, nous avons confronté des prédictions de l'effet de mélange avec des changements biologiques observés dans l'environnement. Dans cette étude, nous avons utilisé des données venant d'un suivi à long terme d'un grand lac européen, le lac Léman, ce qui offrait la possibilité d'évaluer dans quelle mesure la prédiction de la toxicité des mélanges d'herbicide expliquait les changements dans la composition de la communauté phytoplanctonique. Ceci à côté d'autres paramètres classiques de limnologie tels que les nutriments. Pour atteindre cet objectif, nous avons déterminé la toxicité des mélanges sur plusieurs années de 14 herbicides régulièrement détectés dans le lac, en utilisant les modèles CA et RA avec les courbes de distribution de la sensibilité des espèces. Un gradient temporel de toxicité décroissant a pu être constaté de 2004 à 2009. Une analyse de redondance et de redondance partielle, a montré que ce gradient explique une partie significative de la variation de la composition de la communauté phytoplanctonique, même après avoir enlevé l'effet de toutes les autres co-variables. De plus, certaines espèces révélées pour avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps, ont montré des comportements similaires dans des études en mésocosmes. On peut en conclure que la toxicité du mélange herbicide est l'un des paramètres clés pour expliquer les changements de phytoplancton dans le lac Léman. En conclusion, il existe diverses méthodes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques et celui-ci peut jouer un rôle dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application, avant d'utiliser leurs résultats pour la gestion des risques environnementaux. - For several years now, the scientists as well as the society is concerned by the aquatic risk organic micropollutants may pose. Indeed, several researches have shown the toxic effects these substances may induce on organisms living in our lakes or rivers, especially when they are exposed to acute or chronic concentrations. However, most of the studies focused on the toxicity of single compounds, i.e. considered individually. The same also goes in the current European regulations concerning the risk assessment procedures for the environment of these substances. But aquatic organisms are typically exposed every day simultaneously to thousands of organic compounds. The toxic effects resulting of these "cocktails" cannot be neglected. The ecological risk assessment of mixtures of such compounds has therefore to be addressed by scientists in the most reliable and appropriate way. In the first part of this thesis, the procedures currently envisioned for the aquatic mixture risk assessment in European legislations are described. These methodologies are based on the mixture model of concentration addition and the use of the predicted no effect concentrations (PNEC) or effect concentrations (EC50) with assessment factors. These principal approaches were applied to two specific case studies, Lake Geneva and the River Rhône in Switzerland, including a discussion of the outcomes of such applications. These first level assessments showed that the mixture risks for these studied cases exceeded rapidly the critical value. This exceeding is generally due to two or three main substances. The proposed procedures allow therefore the identification of the most problematic substances for which management measures, such as a reduction of the entrance to the aquatic environment, should be envisioned. However, it was also showed that the risk levels associated with mixtures of compounds are not negligible, even without considering these main substances. Indeed, it is the sum of the substances that is problematic, which is more challenging in term of risk management. Moreover, a lack of reliability in the procedures was highlighted, which can lead to contradictory results in terms of risk. This result is linked to the inconsistency in the assessment factors applied in the different methods. In the second part of the thesis, the reliability of the more advanced procedures to predict the mixture effect to communities in the aquatic system were investigated. These established methodologies combine the model of concentration addition (CA) or response addition (RA) with species sensitivity distribution curves (SSD). Indeed, the mixture effect predictions were shown to be consistent only when the mixture models are applied on a single species, and not on several species simultaneously aggregated to SSDs. Hence, A more stringent procedure for mixture risk assessment is proposed, that would be to apply first the CA or RA models to each species separately and, in a second step, to combine the results to build an SSD for a mixture. Unfortunately, this methodology is not applicable in most cases, because it requires large data sets usually not available. Therefore, the differences between the two methodologies were studied with datasets created artificially to characterize the robustness of the traditional approach applying models on species sensitivity distribution. The results showed that the use of CA on SSD directly might lead to underestimations of the mixture concentration affecting 5% or 50% of species, especially when substances present a large standard deviation of the distribution from the sensitivity of the species. The application of RA can lead to over- or underestimates, depending mainly on the slope of the dose-response curves of the individual species. The potential underestimation with RA becomes important when the ratio between the EC50 and the EC10 for the dose-response curve of the species composing the SSD are smaller than 100. However, considering common real cases of ecotoxicity data for substances, the mixture risk calculated by the methodology applying mixture models directly on SSDs remains consistent and would rather slightly overestimate the risk. These results can be used as a theoretical validation of the currently applied methodology. Nevertheless, when assessing the risk of mixtures, one has to keep in mind this source of error with this classical methodology, especially when SSDs present a distribution of the data outside the range determined in this study Finally, in the last part of this thesis, we confronted the mixture effect predictions with biological changes observed in the environment. In this study, long-term monitoring of a European great lake, Lake Geneva, provides the opportunity to assess to what extent the predicted toxicity of herbicide mixtures explains the changes in the composition of the phytoplankton community next to other classical limnology parameters such as nutrients. To reach this goal, the gradient of the mixture toxicity of 14 herbicides regularly detected in the lake was calculated, using concentration addition and response addition models. A decreasing temporal gradient of toxicity was observed from 2004 to 2009. Redundancy analysis and partial redundancy analysis showed that this gradient explains a significant portion of the variation in phytoplankton community composition, even when having removed the effect of all other co-variables. Moreover, some species that were revealed to be influenced positively or negatively, by the decrease of toxicity in the lake over time, showed similar behaviors in mesocosms studies. It could be concluded that the herbicide mixture toxicity is one of the key parameters to explain phytoplankton changes in Lake Geneva. To conclude, different methods exist to predict the risk of mixture in the ecosystems. But their reliability varies depending on the underlying hypotheses. One should therefore carefully consider these hypotheses, as well as the limits of the approaches, before using the results for environmental risk management
Resumo:
Summary : International comparisons in the area of victimization, particularly in the field of violence against women, are fraught with methodological problems that previous research has not systematically addressed, and whose answer does not seem to be agreed up~n. For obvious logistic and financial reasons, international studies on violence against women (i.e. studies that administer the same instrument in different countries). are seldom; therefore, researchers are bound to resort to secondary comparisons. Many studies simply juxtapose their results to the ones of previous wòrk or to findings obtained in different contexts, in order to offer an allegedly comparative perspective to their conclusions. If, most of the time, researchers indicate the methodological limitations of a direct comparison, it is not rare that these do not result in concrete methodological controls. Yet, many studies have shown the influence of surveys methodological parameters on findings, listing recommendations fora «best practice» of research. Although, over the past decades, violence against women surveys have become more and more similar -tending towards a sort of uniformization that could be interpreted as a passive consensus -these instruments retain more or less subtle differences that are still susceptible to influence the validity of a comparison. Yet, only a small number of studies have directly worked on the comparability of violence against women data, striving to control the methodological parameters of the surveys in order to guarantee the validity of their comparisons. The goal of this work is to compare data from two national surveys on violence against women: the Swiss component of the International Violence Against Women Survey [CH-IVAWS] and the National Violence Against Women Survey [NVAWS] administered in the United States. The choice of these studies certainly ensues from the author's affiliations; however, it is far from being trivial. Indeed, the criminological field currently endows American and Anglo-Saxon literature with a predominant space, compelling researchers from other countries to almost do the splits to interpret their results in the light of previous work or to develop effective interventions in their own context. Turning to hypotheses or concepts developed in a specific framework inevitably raises the issue of their applicability to another context, i.e. the Swiss context, if not at least European. This problematic then takes on an interest that goes beyond the particular topic of violence against women, adding to its relevance. This work articulates around three axes. First, it shows the way survey characteristics influence estimates. The comparability of the nature of the CH-IVAWS and NVAWS, their sampling design and the characteristics of their administration are discussed. The definitions used, the operationalization of variables based on comparable items, the control of reference periods, as well as the nature of the victim-offender relationship are included among controlled factors. This study establishes content validity within and across studies, presenting a systematic process destined to maximize the comparability of secondary data. Implications of the process are illustrated with the successive presentation of comparable and non-comparable operationalizations of computed variables. Measuring violence against. women in Switzerland and the United-States, this work compares the prevalence of different forms (threats, physical violence and sexual violence) and types of violence (partner and nonpartner violence). Second, it endeavors to analyze concepts of multivictimization (i.e. experiencing different forms of victimization), repeat victimization (i.e. experiencing the same form of violence more than once), and revictimization (i.e. the link between childhood and adulthood victimization) in a comparative -and comparable -approach. Third, aiming at understanding why partner violence appears higher in the United States, while victims of nonpartners are more frequent in Switzerland, as well as in other European countries, different victimization correlates are examined. This research contributes to a better understanding of the relevance of controlling methodological parameters in comparisons across studies, as it illustrates, systematically, the imposed controls and their implications on quantitative data. Moreover, it details how ignoring these parameters might lead to erroneous conclusions, statistically as well as theoretically. The conclusion of the study puts into a wider perspective the discussion of differences and similarities of violence against women in Switzerland and the United States, and integrates recommendations as to the relevance and validity of international comparisons, whatever the'field they are conducted in. Résumé: Les comparaisons internationales dans le domaine de la victimisation, et plus particulièrement en ce qui concerne les violences envers les femmes, se caractérisent par des problèmes méthodologiques que les recherches antérieures n'ont pas systématiquement adressés, et dont la réponse ne semble pas connaître de consensus. Pour des raisons logistiques et financières évidentes, les études internationales sur les violences envers les femmes (c.-à-d. les études utilisant un même instrument dans différents pays) sont rares, aussi les chercheurs sont-ils contraints de se tourner vers des comparaisons secondaires. Beaucoup de recherches juxtaposent alors simplement leurs résultats à ceux de travaux antérieurs ou à des résultats obtenus dans d'autres contextes, afin d'offrir à leurs conclusions une perspective prétendument comparative. Si, le plus souvent, les auteurs indiquent les limites méthodologiques d'une comparaison directe, il est fréquent que ces dernières ne se traduisent pas par des contrôles méthodologiques concrets. Et pourtant, quantité de travaux ont mis en évidence l'influence des paramètres méthodologiques des enquêtes sur les résultats obtenus, érigeant des listes de recommandations pour une «meilleure pratique» de la recherche. Bien que, ces dernières décennies, les sondages sur les violences envers les femmes soient devenus de plus en plus similaires -tendant, vers une certaine uniformisation que l'on peut interpréter comme un consensus passif-, il n'en demeure pas moins que ces instruments possèdent des différences plus ou moins subtiles, mais toujours susceptibles d'influencer la validité d'une comparaison. Pourtant, seules quelques recherches ont directement travaillé sur la comparabilité des données sur les violences envers les femmes, ayant à coeur de contrôler les paramètres méthodologiques des études utilisées afin de garantir la validité de leurs comparaisons. L'objectif de ce travail est la comparaison des données de deux sondages nationaux sur les violences envers les femmes: le composant suisse de l'International Violence Against Women Survey [CHIVAWSj et le National Violence Against Women Survey [NVAWS) administré aux États-Unis. Le choix de ces deux études découle certes des affiliations de l'auteure, cependant il est loin d'être anodin. Le champ criminologique actuel confère, en effet, une place prépondérante à la littérature américaine et anglo-saxonne, contraignant ainsi les chercheurs d'autres pays à un exercice proche du grand écart pour interpréter leurs résultats à la lumière des travaux antérieurs ou développer des interventions efficaces dans leur propre contexte. Le fait de recourir à des hypothèses et des concepts développés dans un cadre spécifique pose inévitablement la question de leur applicabilité à un autre contexte, soit ici le contexte suisse, sinon du moins européen. Cette problématique revêt alors un intérêt qui dépasse la thématique spécifique des violences envers les femmes, ce qui ajoute à sa pertinence. Ce travail s'articule autour de trois axes. Premièrement, il met en évidence la manière dont les caractéristiques d'un sondage influencent les estimations qui en découlent. La comparabilité de la nature du CH-IVAWS et du NVAWS, de leur processus d'échantillonnage et des caractéristiques de leur administration est discutée. Les définitions utilisées, l'opérationnalisation des variables sur la base d'items comparables, le contrôle des périodes de référence, ainsi que la nature de la relation victime-auteur figurent également parmi les facteurs contrôlés. Ce travail établit ainsi la validité de contenu intra- et inter-études, offrant un processus systématique destiné à maximiser la comparabilité des données secondaires. Les implications de cette démarche sont illustrées avec la présentation successive d'opérationnalisations comparables et non-comparables des variables construites. Mesurant les violences envers les femmes en Suisse et aux États-Unis, ce travail compare la prévalence de plusieurs formes (menaces, violences physiques et violences sexuelles) et types de violence (violences partenaires et non-partenaires). 11 s'attache également à analyser les concepts de multivictimisation (c.-à-d. le fait de subir plusieurs formes de victimisation), victimisation répétée (c.-à.-d. le fait de subir plusieurs incidents de même forme) et revictimisation (c.-à-d. le lien entre la victimisation dans l'enfance et à l'âge adulte) dans une approche comparative - et comparable. Dans un troisième temps, cherchant à comprendre pourquoi la violence des partenaires apparaît plus fréquente aux États-Unis, tandis que les victimes de non-partenaires sont plus nombreuses en Suisse, et dans d'autres pays européens, différents facteurs associés à la victimisation sont évalués. Cette recherche participe d'une meilleure compréhension de la pertinence du contrôle des paramètres méthodologiques dans les comparaisons entre études puisqu'elle illustre, pas à pas, les contrôles imposés et leurs effets sur les données quantitatives, et surtout comment l'ignorance de ces paramètres peut conduire à des conclusions erronées, tant statistiquement que théoriquement. La conclusion replace, dans un contexte plus large, la discussion des différences et des similitudes observées quant à la prévalence des violences envers les femmes en Suisse et aux États-Unis, et intègre des recommandations quant à la pertinence et à la validité des comparaisons internationales, cela quel que soit le domaine considéré.