205 resultados para Mots-clés
Resumo:
Résumé de la thèse Le travail de thèse «VOIR LE MONDE COMME UNE IMAGE. Le schème de l'image mimétique dans la philosophie de Platon (Cratyle, Sophiste, Timée) » d'Alexandre NEVSKY étudie la conception philosophique de l'image chez Platon. En posant la question : qu'est-ce que l'image pour Platon? l'étude se propose, dans un premier temps, d'analyser la manière précise dont l'idée de l'image fonctionne dans l'articulation logique de l'enquête platonicienne, en se basant avant tout sur trois dialogues majeurs où cette idée est explicitement thématisée par Platon lui-même, à savoir le Cratyle, le Sophiste et le Timée. Par une analyse détaillée de ces textes, Alexandre Nevsky essaie de démontrer que l'idée de l'image fonctionne comme un schème euristique dont la logique interne détermine les moments clés dans le déroulement de chaque dialogue examiné, et constitue ainsi une véritable méthode d'investigation philosophique pour Platon. En suivant cette stratégie platonicienne, l'auteur nous montre quel rôle le schème de l'image joue selon Platon d'abord dans la constitution du langage (le Cratyle), puis, dans celle du discours (le Sophiste) et, enfin, dans celle du monde (le Timée). Une telle approche lui permet de revoir l'interprétation traditionnelle de certains passages clés, célèbres pour leurs difficultés, en mettant en évidence la façon dont la nouvelle perspective platonicienne, introduite grâce au schème de l'image, permet de formuler une solution philosophique originale du problème initial. On y trouve ainsi rediscutés, pour ne citer que quelques exemples, la théorie curieuse de l'imitation phonétique et le problème de la justesse propre du nom-image, la définition philosophique de la notion d'image et la distinction platonicienne entre limage-ressemblance et l'image-apparence, la logique paradoxale de l'introduction d'un troisième genre dans la structure ontologique de l'être et la question du sens exact à donner au «discours vraisemblable » de Platon sur la naissance de l'univers. Dans un deuxième temps, cette étude tente de dégager, derrière la méthode heuristique basée sur le schème de l'image, une véritable conception de l'image mimétique chez Platon. L'une des idées principales de la thèse est ici de montrer que cette conception présente une solution philosophique de Platon au problème de l'apparence archaïque. Car, face à la question sophistique : comment une chose - que ce soit le discours ou le monde - peut-elle être une apparence, quelque chose qui n'existe pas? Platon apporte une réponse tout à fait originale elle le peut en tant qu'image. Or, l'image n'est pas une simple apparence illusoire, elle est le reflet d'une autre réalité, indépendante et véritable, que l'on doit supposer, selon Platon, même quand sa nature exacte nous échappe encore. La conception platonicienne de l'image apparaît ainsi comme un pendant indispensable de la théorie des Formes intelligibles et aussi comme son étape préalable au niveau de laquelle l'âme du philosophe, dans son ascension vers la vérité, se retrouve dans un espace intermédiaire, déjà au-delà des illusions du monde phénoménal, mais encore en-deçà des engagements métaphysiques de la théorie des Formes.
Resumo:
La présente étude est à la fois une évaluation du processus de la mise en oeuvre et des impacts de la police de proximité dans les cinq plus grandes zones urbaines de Suisse - Bâle, Berne, Genève, Lausanne et Zurich. La police de proximité (community policing) est à la fois une philosophie et une stratégie organisationnelle qui favorise un partenariat renouvelé entre la police et les communautés locales dans le but de résoudre les problèmes relatifs à la sécurité et à l'ordre public. L'évaluation de processus a analysé des données relatives aux réformes internes de la police qui ont été obtenues par l'intermédiaire d'entretiens semi-structurés avec des administrateurs clés des cinq départements de police, ainsi que dans des documents écrits de la police et d'autres sources publiques. L'évaluation des impacts, quant à elle, s'est basée sur des variables contextuelles telles que des statistiques policières et des données de recensement, ainsi que sur des indicateurs d'impacts construit à partir des données du Swiss Crime Survey (SCS) relatives au sentiment d'insécurité, à la perception du désordre public et à la satisfaction de la population à l'égard de la police. Le SCS est un sondage régulier qui a permis d'interroger des habitants des cinq grandes zones urbaines à plusieurs reprises depuis le milieu des années 1980. L'évaluation de processus a abouti à un « Calendrier des activités » visant à créer des données de panel permettant de mesurer les progrès réalisés dans la mise en oeuvre de la police de proximité à l'aide d'une grille d'évaluation à six dimensions à des intervalles de cinq ans entre 1990 et 2010. L'évaluation des impacts, effectuée ex post facto, a utilisé un concept de recherche non-expérimental (observational design) dans le but d'analyser les impacts de différents modèles de police de proximité dans des zones comparables à travers les cinq villes étudiées. Les quartiers urbains, délimités par zone de code postal, ont ainsi été regroupés par l'intermédiaire d'une typologie réalisée à l'aide d'algorithmes d'apprentissage automatique (machine learning). Des algorithmes supervisés et non supervisés ont été utilisés sur les données à haute dimensionnalité relatives à la criminalité, à la structure socio-économique et démographique et au cadre bâti dans le but de regrouper les quartiers urbains les plus similaires dans des clusters. D'abord, les cartes auto-organisatrices (self-organizing maps) ont été utilisées dans le but de réduire la variance intra-cluster des variables contextuelles et de maximiser simultanément la variance inter-cluster des réponses au sondage. Ensuite, l'algorithme des forêts d'arbres décisionnels (random forests) a permis à la fois d'évaluer la pertinence de la typologie de quartier élaborée et de sélectionner les variables contextuelles clés afin de construire un modèle parcimonieux faisant un minimum d'erreurs de classification. Enfin, pour l'analyse des impacts, la méthode des appariements des coefficients de propension (propensity score matching) a été utilisée pour équilibrer les échantillons prétest-posttest en termes d'âge, de sexe et de niveau d'éducation des répondants au sein de chaque type de quartier ainsi identifié dans chacune des villes, avant d'effectuer un test statistique de la différence observée dans les indicateurs d'impacts. De plus, tous les résultats statistiquement significatifs ont été soumis à une analyse de sensibilité (sensitivity analysis) afin d'évaluer leur robustesse face à un biais potentiel dû à des covariables non observées. L'étude relève qu'au cours des quinze dernières années, les cinq services de police ont entamé des réformes majeures de leur organisation ainsi que de leurs stratégies opérationnelles et qu'ils ont noué des partenariats stratégiques afin de mettre en oeuvre la police de proximité. La typologie de quartier développée a abouti à une réduction de la variance intra-cluster des variables contextuelles et permet d'expliquer une partie significative de la variance inter-cluster des indicateurs d'impacts avant la mise en oeuvre du traitement. Ceci semble suggérer que les méthodes de géocomputation aident à équilibrer les covariables observées et donc à réduire les menaces relatives à la validité interne d'un concept de recherche non-expérimental. Enfin, l'analyse des impacts a révélé que le sentiment d'insécurité a diminué de manière significative pendant la période 2000-2005 dans les quartiers se trouvant à l'intérieur et autour des centres-villes de Berne et de Zurich. Ces améliorations sont assez robustes face à des biais dus à des covariables inobservées et covarient dans le temps et l'espace avec la mise en oeuvre de la police de proximité. L'hypothèse alternative envisageant que les diminutions observées dans le sentiment d'insécurité soient, partiellement, un résultat des interventions policières de proximité semble donc être aussi plausible que l'hypothèse nulle considérant l'absence absolue d'effet. Ceci, même si le concept de recherche non-expérimental mis en oeuvre ne peut pas complètement exclure la sélection et la régression à la moyenne comme explications alternatives. The current research project is both a process and impact evaluation of community policing in Switzerland's five major urban areas - Basel, Bern, Geneva, Lausanne, and Zurich. Community policing is both a philosophy and an organizational strategy that promotes a renewed partnership between the police and the community to solve problems of crime and disorder. The process evaluation data on police internal reforms were obtained through semi-structured interviews with key administrators from the five police departments as well as from police internal documents and additional public sources. The impact evaluation uses official crime records and census statistics as contextual variables as well as Swiss Crime Survey (SCS) data on fear of crime, perceptions of disorder, and public attitudes towards the police as outcome measures. The SCS is a standing survey instrument that has polled residents of the five urban areas repeatedly since the mid-1980s. The process evaluation produced a "Calendar of Action" to create panel data to measure community policing implementation progress over six evaluative dimensions in intervals of five years between 1990 and 2010. The impact evaluation, carried out ex post facto, uses an observational design that analyzes the impact of the different community policing models between matched comparison areas across the five cities. Using ZIP code districts as proxies for urban neighborhoods, geospatial data mining algorithms serve to develop a neighborhood typology in order to match the comparison areas. To this end, both unsupervised and supervised algorithms are used to analyze high-dimensional data on crime, the socio-economic and demographic structure, and the built environment in order to classify urban neighborhoods into clusters of similar type. In a first step, self-organizing maps serve as tools to develop a clustering algorithm that reduces the within-cluster variance in the contextual variables and simultaneously maximizes the between-cluster variance in survey responses. The random forests algorithm then serves to assess the appropriateness of the resulting neighborhood typology and to select the key contextual variables in order to build a parsimonious model that makes a minimum of classification errors. Finally, for the impact analysis, propensity score matching methods are used to match the survey respondents of the pretest and posttest samples on age, gender, and their level of education for each neighborhood type identified within each city, before conducting a statistical test of the observed difference in the outcome measures. Moreover, all significant results were subjected to a sensitivity analysis to assess the robustness of these findings in the face of potential bias due to some unobserved covariates. The study finds that over the last fifteen years, all five police departments have undertaken major reforms of their internal organization and operating strategies and forged strategic partnerships in order to implement community policing. The resulting neighborhood typology reduced the within-cluster variance of the contextual variables and accounted for a significant share of the between-cluster variance in the outcome measures prior to treatment, suggesting that geocomputational methods help to balance the observed covariates and hence to reduce threats to the internal validity of an observational design. Finally, the impact analysis revealed that fear of crime dropped significantly over the 2000-2005 period in the neighborhoods in and around the urban centers of Bern and Zurich. These improvements are fairly robust in the face of bias due to some unobserved covariate and covary temporally and spatially with the implementation of community policing. The alternative hypothesis that the observed reductions in fear of crime were at least in part a result of community policing interventions thus appears at least as plausible as the null hypothesis of absolutely no effect, even if the observational design cannot completely rule out selection and regression to the mean as alternative explanations.
Resumo:
Phénomène reconnu de longue date, dont les rhéteurs et les écrivains ont même souvent vanté l'efficacité pour réaliser un portrait moral convaincant, la caractérisation langagière des personnages n'a été que peu observée selon une perspective générale, comme si son étude ne pouvait s'envisager en dehors du projet esthétique d'un auteur particulier. Cependant, on peut envisager la caractérisation langagière comme procédant d'une poétique du récit, c'est-à-dire comme un mécanisme du texte narratif, dont certaines constantes peuvent être décrites. L'objectif du présent travail est ainsi de mettre au jour les conditions, tant textuelles que contextuelles, devant être réunies pour que certains aspects des discours rapportés fassent sens en tant qu'éléments de caractérisation. La nature indirecte de ce phénomène demande en effet de porter une attention particulière à ce qui relève des conditions de production et d'interprétation du texte, autrement dit des éléments contextuels que le texte convoque (liés à la langue, aux genres, au « texte » de la culture, etc.) afin de (re)construire par inférence ce qui est dit « sans être dit ». Ainsi la caractérisation langagière reposet- elle sur la reconnaissance d'un rôle thématique endossé par le personnage, rôle défini en partie par certains « habitus » discursifs. Mais il importe également de considérer la caractérisation langagière comme un effet de la textualité. Cela concerne d'abord des unités manipulées par les auteurs (mots, structures syntaxiques, phonologie...). Néanmoins, rien ne se joue sur un unique élément ; au contraire, d'une part, il faut qu'une série de traits s'organisent en un réseau isotope, et cela de la réplique isolée au texte entier ; d'autre part, la caractérisation dérive encore des relations que le discours d'un personnage entretient avec des discours avoisinants, en premier lieu celui du narrateur. Se concentrant sur des oeuvres comiques ou satiriques des XVIIe et XVIIIe siècles, l'approche proposée ici veut également tenir compte d'une tradition rhétorique et poétique qui associe portrait moral et parole représentée, tradition encore très présente dans un tel corpus, qui a par ailleurs l'avantage de laisser entrer dans le monde de la fiction des personnages de toutes conditions, dotés de leurs langages spécifiques.
Resumo:
RésuméLes champignons sont impliqués dans les cycles biogéochimiques de différentes manières. En particulier, ils sont reconnus en tant qu'acteurs clés dans la dégradation de la matière organique, comme fournisseurs d'éléments nutritifs via l'altération des minéraux mais aussi comme grands producteurs d'acide oxalique et de complexes oxalo-métalliques. Toutefois, peu de choses sont connues quant à leur contribution à la genèse d'autres types de minéraux, tel que le carbonate de calcium (CaCO3). Le CaCO3 est un minéral ubiquiste dans de nombreux écosystèmes et il joue un rôle essentiel dans les cycles biogéochimiques du carbone (C) et du calcium (Ca). Le CaCO3 peut être d'origine physico-chimique ou biogénique et de nombreux organismes sont connus pour contrôler ou induire sa biominéralisation. Les champignons ont souvent été soupçonnés d'être impliqué dans ce processus, cependant il existe très peu d'informations pour étayer cette hypothèse.Cette thèse a eu pour but l'étude de cet aspect négligé de l'impact des champignons dans les cycles biogéochimiques, par l'exploration de leur implication potentielle dans la formation d'un type particulier de CaCO3 secondaires observés dans les sols et dans les grottes des environnements calcaires. Dans les grottes, ces dépôts sont appelés moonmilk, alors que dans les sols on les appelle calcite en aiguilles. Cependant ces deux descriptions correspondent en fait au même assemblage microscopique de deux habitus particulier de la calcite: la calcite en aiguilles (au sens strict du terme cette fois-ci) et les nanofibres. Ces deux éléments sont des habitus aciculaires de la calcite, mais présentent des dimensions différentes. Leur origine, physico-chimique ou biologique, est l'objet de débats intenses depuis plusieurs années déjà.L'observation d'échantillons environnementaux avec des techniques de microscopie (microscopie électronique et micromorphologie), ainsi que de la microanalyse EDX, ont démontré plusieurs relations intéressantes entre la calcite en aiguilles, les nanofibres et des éléments organiques. Premièrement, il est montré que les nanofibres peuvent être organiques ou minérales. Deuxièmement, la calcite en aiguilles et les nanofibres présentent de fortes analogies avec des structures hyphales, ce qui permet de confirmer l'hypothèse de leur origine fongique. En outre, des expériences en laboratoire ont confirmé l'origine fongique des nanofibres, par des digestions enzymatiques d'hyphes fongiques. En effet, des structures à base de nanofibres, similaires à celles observées dans des échantillons naturels, ont pu être produites par cette approche. Finalement, des enrichissements en calcium ont été mesurés dans les parois des hyphes et dans des inclusions intrahyphales provenant d'échantillons naturels de rhizomorphes. Ces résultats suggèrent une implication de la séquestration de calcium dans la formation de la calcite en aiguilles et/ou des nanofibres.Plusieurs aspects restent à élucider, en particulier la compréhension des processus physiologiques impliqués dans la nucléation de calcite dans les hyphes fongiques. Cependant, les résultats obtenus dans cette thèse ont permis de confirmer l'implication des champignons dans la formation de la calcite en aiguilles et des nanofibres. Ces découvertes sont d'une grande importance dans les cycles biogéochimiques puisqu'ils apportent de nouveaux éléments dans le cycle couplé C-Ca. Classiquement, les champignons sont considérés comme étant impliqués principalement dans la minéralisation de la matière organique et dans l'altération minérale. Cette étude démontre que les champignons doivent aussi être pris en compte en tant qu'agents majeurs de la genèse de minéraux, en particulier de CaCO3. Ceci représente une toute nouvelle perspective en géomycologie quant à la participation des champignons au cycle biologique du C. En effet, la présence de ces précipitations de CaCO3 secondaires représente un court-circuit dans le cycle biologique du C puisque du C inorganique du sol se retrouve piégé dans de la calcite plutôt que d'être retourné dans l'atmosphère.AbstractFungi are known to be involved in biogeochemical cycles in numerous ways. In particular, they are recognized as key players in organic matter recycling, as nutrient suppliers via mineral weathering, as well as large producers of oxalic acid and metal-oxalate. However, little is known about their contribution to the genesis of other types of minerals such as calcium carbonate (CaCO3). Yet, CaC03 are ubiquitous minerals in many ecosystems and play an essential role in the biogeochemical cycles of both carbon (C) and calcium (Ca). CaC03 may be physicochemical or biogenic in origin and numerous organisms have been recognized to control or induce calcite biomineralization. While fungi have often been suspected to be involved in this process, only scarce information support this hypothesis.This Ph.D. thesis aims at investigating this disregarded aspect of fungal impact on biogeochemical cycles by exploring their possible implication in the formation of a particular type of secondary CaC03 deposit ubiquitously observed in soils and caves from calcareous environments. In caves, these deposits are known as moonmilk, whereas in soils, they are known as Needle Fibre Calcite (NFC - sensu lato). However, they both correspond to the same microscopic assemblage of two distinct and unusual habits of calcite: NFC {sensu stricto) and nanofibres. Both features are acicular habits of calcite displaying different dimensions. Whether these habits are physicochemical or biogenic in origin has been under discussion for a long time.Observations of natural samples using microscopic techniques (electron microscopy and micromorphology) and EDX microanalyses have demonstrated several interesting relationships between NFC, nanofibres, and organic features. First, it has shown that nanofibres can be either organic or minera! in nature. Second, both nanofibres and NFC display strong structural analogies with fungal hyphal features, supporting their fungal origin. Furthermore, laboratory experiments have confirmed the fungal origin of nanofibres through an enzymatic digestion of fungal hyphae. Indeed, structures made of nanofibres with similar features as those observed in natural samples have been produced. Finally, calcium enrichments have been measured in both cell walls and intrahyphal inclusions of hyphae from rhizomorphs sampled in the natural environment. These results point out an involvement of calcium sequestration in nanofibres and/or NFC genesis.Several aspects need further investigation, in particular the understanding of the physiological processes involved in hyphal calcite nucleation. However, the results obtained during this study have allowed the confirmation of the implication of fungi in the formation of both NFC and nanofibres. These findings are of great importance regarding global biogeochemical cycles as they bring new insights into the coupled C and Ca cycles. Conventionally, fungi are considered to be involved in organic matter mineralization and mineral weathering. In this study, we demonstrate that they must also be considered as major agents in mineral genesis, in particular CaC03. This is a completely new perspective in geomycology regarding the role of fungi in the short-term (or biological) C cycle. Indeed, the presence of these secondary CaC03 precipitations represents a bypass in the short- term carbon cycle, as soil inorganic C is not readily returned to the atmosphere.
Resumo:
Ces dernières années, de nombreuses recherches ont mis en évidence les effets toxiques des micropolluants organiques pour les espèces de nos lacs et rivières. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, alors que les organismes sont exposés tous les jours à des milliers de substances en mélange. Or les effets de ces cocktails ne sont pas négligeables. Cette thèse de doctorat s'est ainsi intéressée aux modèles permettant de prédire le risque environnemental de ces cocktails pour le milieu aquatique. Le principal objectif a été d'évaluer le risque écologique des mélanges de substances chimiques mesurées dans le Léman, mais aussi d'apporter un regard critique sur les méthodologies utilisées afin de proposer certaines adaptations pour une meilleure estimation du risque. Dans la première partie de ce travail, le risque des mélanges de pesticides et médicaments pour le Rhône et pour le Léman a été établi en utilisant des approches envisagées notamment dans la législation européenne. Il s'agit d'approches de « screening », c'est-à-dire permettant une évaluation générale du risque des mélanges. Une telle approche permet de mettre en évidence les substances les plus problématiques, c'est-à-dire contribuant le plus à la toxicité du mélange. Dans notre cas, il s'agit essentiellement de 4 pesticides. L'étude met également en évidence que toutes les substances, même en trace infime, contribuent à l'effet du mélange. Cette constatation a des implications en terme de gestion de l'environnement. En effet, ceci implique qu'il faut réduire toutes les sources de polluants, et pas seulement les plus problématiques. Mais l'approche proposée présente également un biais important au niveau conceptuel, ce qui rend son utilisation discutable, en dehors d'un screening, et nécessiterait une adaptation au niveau des facteurs de sécurité employés. Dans une deuxième partie, l'étude s'est portée sur l'utilisation des modèles de mélanges dans le calcul de risque environnemental. En effet, les modèles de mélanges ont été développés et validés espèce par espèce, et non pour une évaluation sur l'écosystème en entier. Leur utilisation devrait donc passer par un calcul par espèce, ce qui est rarement fait dû au manque de données écotoxicologiques à disposition. Le but a été donc de comparer, avec des valeurs générées aléatoirement, le calcul de risque effectué selon une méthode rigoureuse, espèce par espèce, avec celui effectué classiquement où les modèles sont appliqués sur l'ensemble de la communauté sans tenir compte des variations inter-espèces. Les résultats sont dans la majorité des cas similaires, ce qui valide l'approche utilisée traditionnellement. En revanche, ce travail a permis de déterminer certains cas où l'application classique peut conduire à une sous- ou sur-estimation du risque. Enfin, une dernière partie de cette thèse s'est intéressée à l'influence que les cocktails de micropolluants ont pu avoir sur les communautés in situ. Pour ce faire, une approche en deux temps a été adoptée. Tout d'abord la toxicité de quatorze herbicides détectés dans le Léman a été déterminée. Sur la période étudiée, de 2004 à 2009, cette toxicité due aux herbicides a diminué, passant de 4% d'espèces affectées à moins de 1%. Ensuite, la question était de savoir si cette diminution de toxicité avait un impact sur le développement de certaines espèces au sein de la communauté des algues. Pour ce faire, l'utilisation statistique a permis d'isoler d'autres facteurs pouvant avoir une influence sur la flore, comme la température de l'eau ou la présence de phosphates, et ainsi de constater quelles espèces se sont révélées avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps. Fait intéressant, une partie d'entre-elles avait déjà montré des comportements similaires dans des études en mésocosmes. En conclusion, ce travail montre qu'il existe des modèles robustes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques, et qu'ils peuvent être utilisés pour expliquer le rôle des substances dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application. - Depuis plusieurs années, les risques que posent les micropolluants organiques pour le milieu aquatique préoccupent grandement les scientifiques ainsi que notre société. En effet, de nombreuses recherches ont mis en évidence les effets toxiques que peuvent avoir ces substances chimiques sur les espèces de nos lacs et rivières, quand elles se retrouvent exposées à des concentrations aiguës ou chroniques. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, c'est à dire considérées séparément. Actuellement, il en est de même dans les procédures de régulation européennes, concernant la partie évaluation du risque pour l'environnement d'une substance. Or, les organismes sont exposés tous les jours à des milliers de substances en mélange, et les effets de ces "cocktails" ne sont pas négligeables. L'évaluation du risque écologique que pose ces mélanges de substances doit donc être abordé par de la manière la plus appropriée et la plus fiable possible. Dans la première partie de cette thèse, nous nous sommes intéressés aux méthodes actuellement envisagées à être intégrées dans les législations européennes pour l'évaluation du risque des mélanges pour le milieu aquatique. Ces méthodes sont basées sur le modèle d'addition des concentrations, avec l'utilisation des valeurs de concentrations des substances estimées sans effet dans le milieu (PNEC), ou à partir des valeurs des concentrations d'effet (CE50) sur certaines espèces d'un niveau trophique avec la prise en compte de facteurs de sécurité. Nous avons appliqué ces méthodes à deux cas spécifiques, le lac Léman et le Rhône situés en Suisse, et discuté les résultats de ces applications. Ces premières étapes d'évaluation ont montré que le risque des mélanges pour ces cas d'étude atteint rapidement une valeur au dessus d'un seuil critique. Cette valeur atteinte est généralement due à deux ou trois substances principales. Les procédures proposées permettent donc d'identifier les substances les plus problématiques pour lesquelles des mesures de gestion, telles que la réduction de leur entrée dans le milieu aquatique, devraient être envisagées. Cependant, nous avons également constaté que le niveau de risque associé à ces mélanges de substances n'est pas négligeable, même sans tenir compte de ces substances principales. En effet, l'accumulation des substances, même en traces infimes, atteint un seuil critique, ce qui devient plus difficile en terme de gestion du risque. En outre, nous avons souligné un manque de fiabilité dans ces procédures, qui peuvent conduire à des résultats contradictoires en terme de risque. Ceci est lié à l'incompatibilité des facteurs de sécurité utilisés dans les différentes méthodes. Dans la deuxième partie de la thèse, nous avons étudié la fiabilité de méthodes plus avancées dans la prédiction de l'effet des mélanges pour les communautés évoluant dans le système aquatique. Ces méthodes reposent sur le modèle d'addition des concentrations (CA) ou d'addition des réponses (RA) appliqués sur les courbes de distribution de la sensibilité des espèces (SSD) aux substances. En effet, les modèles de mélanges ont été développés et validés pour être appliqués espèce par espèce, et non pas sur plusieurs espèces agrégées simultanément dans les courbes SSD. Nous avons ainsi proposé une procédure plus rigoureuse, pour l'évaluation du risque d'un mélange, qui serait d'appliquer d'abord les modèles CA ou RA à chaque espèce séparément, et, dans une deuxième étape, combiner les résultats afin d'établir une courbe SSD du mélange. Malheureusement, cette méthode n'est pas applicable dans la plupart des cas, car elle nécessite trop de données généralement indisponibles. Par conséquent, nous avons comparé, avec des valeurs générées aléatoirement, le calcul de risque effectué selon cette méthode plus rigoureuse, avec celle effectuée traditionnellement, afin de caractériser la robustesse de cette approche qui consiste à appliquer les modèles de mélange sur les courbes SSD. Nos résultats ont montré que l'utilisation de CA directement sur les SSDs peut conduire à une sous-estimation de la concentration du mélange affectant 5 % ou 50% des espèces, en particulier lorsque les substances présentent un grand écart- type dans leur distribution de la sensibilité des espèces. L'application du modèle RA peut quant à lui conduire à une sur- ou sous-estimations, principalement en fonction de la pente des courbes dose- réponse de chaque espèce composant les SSDs. La sous-estimation avec RA devient potentiellement importante lorsque le rapport entre la EC50 et la EC10 de la courbe dose-réponse des espèces est plus petit que 100. Toutefois, la plupart des substances, selon des cas réels, présentent des données d' écotoxicité qui font que le risque du mélange calculé par la méthode des modèles appliqués directement sur les SSDs reste cohérent et surestimerait plutôt légèrement le risque. Ces résultats valident ainsi l'approche utilisée traditionnellement. Néanmoins, il faut garder à l'esprit cette source d'erreur lorsqu'on procède à une évaluation du risque d'un mélange avec cette méthode traditionnelle, en particulier quand les SSD présentent une distribution des données en dehors des limites déterminées dans cette étude. Enfin, dans la dernière partie de cette thèse, nous avons confronté des prédictions de l'effet de mélange avec des changements biologiques observés dans l'environnement. Dans cette étude, nous avons utilisé des données venant d'un suivi à long terme d'un grand lac européen, le lac Léman, ce qui offrait la possibilité d'évaluer dans quelle mesure la prédiction de la toxicité des mélanges d'herbicide expliquait les changements dans la composition de la communauté phytoplanctonique. Ceci à côté d'autres paramètres classiques de limnologie tels que les nutriments. Pour atteindre cet objectif, nous avons déterminé la toxicité des mélanges sur plusieurs années de 14 herbicides régulièrement détectés dans le lac, en utilisant les modèles CA et RA avec les courbes de distribution de la sensibilité des espèces. Un gradient temporel de toxicité décroissant a pu être constaté de 2004 à 2009. Une analyse de redondance et de redondance partielle, a montré que ce gradient explique une partie significative de la variation de la composition de la communauté phytoplanctonique, même après avoir enlevé l'effet de toutes les autres co-variables. De plus, certaines espèces révélées pour avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps, ont montré des comportements similaires dans des études en mésocosmes. On peut en conclure que la toxicité du mélange herbicide est l'un des paramètres clés pour expliquer les changements de phytoplancton dans le lac Léman. En conclusion, il existe diverses méthodes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques et celui-ci peut jouer un rôle dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application, avant d'utiliser leurs résultats pour la gestion des risques environnementaux. - For several years now, the scientists as well as the society is concerned by the aquatic risk organic micropollutants may pose. Indeed, several researches have shown the toxic effects these substances may induce on organisms living in our lakes or rivers, especially when they are exposed to acute or chronic concentrations. However, most of the studies focused on the toxicity of single compounds, i.e. considered individually. The same also goes in the current European regulations concerning the risk assessment procedures for the environment of these substances. But aquatic organisms are typically exposed every day simultaneously to thousands of organic compounds. The toxic effects resulting of these "cocktails" cannot be neglected. The ecological risk assessment of mixtures of such compounds has therefore to be addressed by scientists in the most reliable and appropriate way. In the first part of this thesis, the procedures currently envisioned for the aquatic mixture risk assessment in European legislations are described. These methodologies are based on the mixture model of concentration addition and the use of the predicted no effect concentrations (PNEC) or effect concentrations (EC50) with assessment factors. These principal approaches were applied to two specific case studies, Lake Geneva and the River Rhône in Switzerland, including a discussion of the outcomes of such applications. These first level assessments showed that the mixture risks for these studied cases exceeded rapidly the critical value. This exceeding is generally due to two or three main substances. The proposed procedures allow therefore the identification of the most problematic substances for which management measures, such as a reduction of the entrance to the aquatic environment, should be envisioned. However, it was also showed that the risk levels associated with mixtures of compounds are not negligible, even without considering these main substances. Indeed, it is the sum of the substances that is problematic, which is more challenging in term of risk management. Moreover, a lack of reliability in the procedures was highlighted, which can lead to contradictory results in terms of risk. This result is linked to the inconsistency in the assessment factors applied in the different methods. In the second part of the thesis, the reliability of the more advanced procedures to predict the mixture effect to communities in the aquatic system were investigated. These established methodologies combine the model of concentration addition (CA) or response addition (RA) with species sensitivity distribution curves (SSD). Indeed, the mixture effect predictions were shown to be consistent only when the mixture models are applied on a single species, and not on several species simultaneously aggregated to SSDs. Hence, A more stringent procedure for mixture risk assessment is proposed, that would be to apply first the CA or RA models to each species separately and, in a second step, to combine the results to build an SSD for a mixture. Unfortunately, this methodology is not applicable in most cases, because it requires large data sets usually not available. Therefore, the differences between the two methodologies were studied with datasets created artificially to characterize the robustness of the traditional approach applying models on species sensitivity distribution. The results showed that the use of CA on SSD directly might lead to underestimations of the mixture concentration affecting 5% or 50% of species, especially when substances present a large standard deviation of the distribution from the sensitivity of the species. The application of RA can lead to over- or underestimates, depending mainly on the slope of the dose-response curves of the individual species. The potential underestimation with RA becomes important when the ratio between the EC50 and the EC10 for the dose-response curve of the species composing the SSD are smaller than 100. However, considering common real cases of ecotoxicity data for substances, the mixture risk calculated by the methodology applying mixture models directly on SSDs remains consistent and would rather slightly overestimate the risk. These results can be used as a theoretical validation of the currently applied methodology. Nevertheless, when assessing the risk of mixtures, one has to keep in mind this source of error with this classical methodology, especially when SSDs present a distribution of the data outside the range determined in this study Finally, in the last part of this thesis, we confronted the mixture effect predictions with biological changes observed in the environment. In this study, long-term monitoring of a European great lake, Lake Geneva, provides the opportunity to assess to what extent the predicted toxicity of herbicide mixtures explains the changes in the composition of the phytoplankton community next to other classical limnology parameters such as nutrients. To reach this goal, the gradient of the mixture toxicity of 14 herbicides regularly detected in the lake was calculated, using concentration addition and response addition models. A decreasing temporal gradient of toxicity was observed from 2004 to 2009. Redundancy analysis and partial redundancy analysis showed that this gradient explains a significant portion of the variation in phytoplankton community composition, even when having removed the effect of all other co-variables. Moreover, some species that were revealed to be influenced positively or negatively, by the decrease of toxicity in the lake over time, showed similar behaviors in mesocosms studies. It could be concluded that the herbicide mixture toxicity is one of the key parameters to explain phytoplankton changes in Lake Geneva. To conclude, different methods exist to predict the risk of mixture in the ecosystems. But their reliability varies depending on the underlying hypotheses. One should therefore carefully consider these hypotheses, as well as the limits of the approaches, before using the results for environmental risk management
Resumo:
Négocier le lancement pour la première fois une enquête par questionnaires et à grande échelle, sur les membres de 8 partis politiques marocains en plein congrès national, est une voie d'accès ethnographique privilégiée pour comprendre les modalités de prise de décision au sein de ces organisations. Cet article se penche sur les circonstances qui favorisent ou entravent l'ouverture du terrain. L'insertion dans des cercles de confiance, la « scientificité » du projet, la création d'un précédent par le premier parti à autoriser l'enquête semblent être les clés du succès. Toutefois, un refus révèle que tolérer une telle recherche revient pour les dirigeants à accepter avec plus ou moins d'enthousiasme une production « démocratisée » et hors contrôle de l'image de leur parti.
Resumo:
RÉSUMÉ Cette thèse porte sur le développement de méthodes algorithmiques pour découvrir automatiquement la structure morphologique des mots d'un corpus. On considère en particulier le cas des langues s'approchant du type introflexionnel, comme l'arabe ou l'hébreu. La tradition linguistique décrit la morphologie de ces langues en termes d'unités discontinues : les racines consonantiques et les schèmes vocaliques. Ce genre de structure constitue un défi pour les systèmes actuels d'apprentissage automatique, qui opèrent généralement avec des unités continues. La stratégie adoptée ici consiste à traiter le problème comme une séquence de deux sous-problèmes. Le premier est d'ordre phonologique : il s'agit de diviser les symboles (phonèmes, lettres) du corpus en deux groupes correspondant autant que possible aux consonnes et voyelles phonétiques. Le second est de nature morphologique et repose sur les résultats du premier : il s'agit d'établir l'inventaire des racines et schèmes du corpus et de déterminer leurs règles de combinaison. On examine la portée et les limites d'une approche basée sur deux hypothèses : (i) la distinction entre consonnes et voyelles peut être inférée sur la base de leur tendance à alterner dans la chaîne parlée; (ii) les racines et les schèmes peuvent être identifiés respectivement aux séquences de consonnes et voyelles découvertes précédemment. L'algorithme proposé utilise une méthode purement distributionnelle pour partitionner les symboles du corpus. Puis il applique des principes analogiques pour identifier un ensemble de candidats sérieux au titre de racine ou de schème, et pour élargir progressivement cet ensemble. Cette extension est soumise à une procédure d'évaluation basée sur le principe de la longueur de description minimale, dans- l'esprit de LINGUISTICA (Goldsmith, 2001). L'algorithme est implémenté sous la forme d'un programme informatique nommé ARABICA, et évalué sur un corpus de noms arabes, du point de vue de sa capacité à décrire le système du pluriel. Cette étude montre que des structures linguistiques complexes peuvent être découvertes en ne faisant qu'un minimum d'hypothèses a priori sur les phénomènes considérés. Elle illustre la synergie possible entre des mécanismes d'apprentissage portant sur des niveaux de description linguistique distincts, et cherche à déterminer quand et pourquoi cette coopération échoue. Elle conclut que la tension entre l'universalité de la distinction consonnes-voyelles et la spécificité de la structuration racine-schème est cruciale pour expliquer les forces et les faiblesses d'une telle approche. ABSTRACT This dissertation is concerned with the development of algorithmic methods for the unsupervised learning of natural language morphology, using a symbolically transcribed wordlist. It focuses on the case of languages approaching the introflectional type, such as Arabic or Hebrew. The morphology of such languages is traditionally described in terms of discontinuous units: consonantal roots and vocalic patterns. Inferring this kind of structure is a challenging task for current unsupervised learning systems, which generally operate with continuous units. In this study, the problem of learning root-and-pattern morphology is divided into a phonological and a morphological subproblem. The phonological component of the analysis seeks to partition the symbols of a corpus (phonemes, letters) into two subsets that correspond well with the phonetic definition of consonants and vowels; building around this result, the morphological component attempts to establish the list of roots and patterns in the corpus, and to infer the rules that govern their combinations. We assess the extent to which this can be done on the basis of two hypotheses: (i) the distinction between consonants and vowels can be learned by observing their tendency to alternate in speech; (ii) roots and patterns can be identified as sequences of the previously discovered consonants and vowels respectively. The proposed algorithm uses a purely distributional method for partitioning symbols. Then it applies analogical principles to identify a preliminary set of reliable roots and patterns, and gradually enlarge it. This extension process is guided by an evaluation procedure based on the minimum description length principle, in line with the approach to morphological learning embodied in LINGUISTICA (Goldsmith, 2001). The algorithm is implemented as a computer program named ARABICA; it is evaluated with regard to its ability to account for the system of plural formation in a corpus of Arabic nouns. This thesis shows that complex linguistic structures can be discovered without recourse to a rich set of a priori hypotheses about the phenomena under consideration. It illustrates the possible synergy between learning mechanisms operating at distinct levels of linguistic description, and attempts to determine where and why such a cooperation fails. It concludes that the tension between the universality of the consonant-vowel distinction and the specificity of root-and-pattern structure is crucial for understanding the advantages and weaknesses of this approach.
Resumo:
Résumé La Na,K-ATPase est une protéine transmembranaire, présente dans toutes les cellules de mammifères et indispensable à la viabilité cellulaire. Elle permet le maintien des gradients sodiques et potassiques à l'origine du potentiel membranaire en transportant 3 Na+ en dehors de la cellule contre 2 K+, grâce à l'énergie fournie par l'hydrolyse d'une molécule d'ATP. Le potentiel membranaire est indispensable au maintien de l'excitabilité cellulaire et à la transmission de l'influx nerveux. Il semblerait que la Na,K-ATPase soit liée à l'hypertension et à certains troubles neurologiques comme la Migraine Familiale Hémiplégique (1VIFH). La MFH est une forme de migraine avec aura, qui se caractérise par une hémiparésie. Cette forme de migraine est très rare. Elle se transmet génétiquement sur un mode autosomique dominant. Plusieurs mutations localisées dans le gène de la Na,K-ATPase ont été identifiées durant ces 3 dernières années. C'est la première fois qu'une maladie génétique est associée au gène de la Na,K-ATPase. La compréhension du fonctionnement de cette protéine peut donner des informations sur les mécanismes conduisant à ces pathologies. On sait que la fonction d'une protéine est liée à sa structure. L'étude de sa fonction nécessite donc l'étude de sa structure. Alors que la structure de la SERCA a été déterminée à haute résolution, par cristallographie, celle de la Na,K-ATPase ne l'est toujours pas. Mais ces 2 ATPases présentent une telle homologie qu'un modèle de la Na,K-ATPase a pu être élaboré à partir de la structure de la SERCA. Les objectifs de cette étude sont d'une part, de comprendre le contrôle de l'accessibilité du K+ extracellulaire àses sites de liaison. Pour cela, nous avons ciblé cette étude sur la 2ìème et la 31eme boucle extracellulaire, qui relient respectivement les segments transmembranaires (STM) 3-4 et 5-6. Le choix s'est porté sur ces 2 boucles car elles bordent le canal des cations formés des 4ième' Sième et 6'ème hélices. D'autre part, nous avons également essayer de comprendre les effets des mutations, liées à la Migraine Familiale Hémiplégique de type 2 (MFH2), sur la fonctionnalité de la Na,K-ATPase. Alors que les STM et les domaines cytoplasmiques sont relativement proches entre la Na,KATPase et la SERCA, les boucles extracellulaires présentent des différences. Le modèle n'est donc pas une approche fiable pour déterminer la structure et la fonction des régions extracellulaires. Nous avons alors utilisé une approche fonctionnelle faisant appel à la mutation dirigée puis à l'étude de l'activité fonctionnelle de la Na,K ATPase par électrophysiologie sur des ovocytes de Xenopus. En conclusion, nous pouvons dire que la troisième boucle extracellulaire participerait à la structure de la voie d'entrée des cations et que la deuxième boucle extracellulaire semble impliquée dans le contrôle de l'accessibilité des ions K+àses sites de liaison. Concernant les mutations associées à la MFH2, nos résultats ont montré une forte diminution de l'activité fonctionnelle de la pompe Na,K, inférieure aux conditions physiologiques de fonctionnement, et pour une des mutations nous avons observés une diminution de l'affmité apparente au K+ externe. Nous poumons faire l'hypothèse que l'origine pathologique de la migraine est liée à une diminution de l'activité de la pompe à Na+. Summary The Na,K-ATPase is a transmembrane protein, present in all mammalian cells and is necessary for the viability of the cells. It maintains the gradients of Na+ and K+ involved in the membrane potential, by transporting 3Na+ out the cell, and 2K+ into the cell, using the energy providing from one ATP molecule hydrolysis. The membrane potential is necessary for the cell excitability and for the transmission of the nervous signal. Some evidence show that Na,K-ATPase is involved in hypertension and neurological disorders like the Familial Hemiplegic Migraine (FHM). La FHM is a rare form of migraine characterised by aura and hemiparesis and an autosomal dominant transmission. Several mutations linked to the Na,KATPase gene have been identified during these 3 last years. It's the first genetic disorder associated with the Na,K-ATPase gene. Understand the function of this protein is important to elucidate the mechanisms implicated in these pathologies. The function of a protein is linked with its structure. Thus, to know the function of a protein, we need to know its structure. While the Ca-ATPase (SERCA) has been crystallised with a high resolution, the structure of the Na,K-ATPase is not known. Because of the great homology between these 2 ATPases, a model of the Na,K-ATPase was realised by comparing with the structure of the SERCA. The aim of this study is on one side, understand the control of the extracellular K+ accessibility to their binding sites. Because of theirs closed proximity with the cation pathway, located between the 4th, 5th and 6th helices, we have targeted this study on the 2nd and the 3rd extracellular loops linking respectively the transmembrane segment (TMS) 3 and 4, and the TMS 5 and 6. And on the other side, we have tried to understand the functional effects of mutations linked with the Familial Hemiplegic Migraine Type 2 (FHM2). In contrast with the transmembrane segments and the cytoplasmic domains, the extracellular loops show lots of difference between Na,K-ATPase and SERCA, the model is not a good approach to know the structure and the function of the extracellular loops. Thus, we have used a functional approach consisting in directed mutagenesis and the study of the functional activity of the Na,K-ATPase by electrophysiological techniques with Xenopus oocytes. In conclusion, we have demonstrated that the third extracellular loop could participate in the structure of the entry of the cations pathway and that the second extracellular loop could control the K+ accessibility to their binding sites. Concerning the mutations associated with the FHM2, our results showed a strong decrease in the functional activity of the Na,K-pump under physiological conditions and for one of mutations, induce a decrease in the apparent external K+ affinity. We could make the hypothesis that the pathogenesis of migraine is related to the decrease in Na,K-pump activity. Résumé au large publique De la même manière que l'assemblage des mots forme des phrases et que l'assemblage des phrases forme des histoires, l'assemblage des cellules forme des organes et l'ensemble des organes constitue les êtres vivants. La fonction d'une cellule dans le corps humain peut se rapprocher de celle d'une usine hydroélectrique. La matière première apportée est l'eau, l'usine électrique va ensuite convertir l'eau en énergie hydraulique pour fournir de l'électricité. Le fonctionnement de base d'une cellule suit le même processus. La cellule a besoin de matières premières (oxygène, nutriments, eau...) pour produire une énergie sous forme chimique, l'ATP. Cette énergie est utilisée par exemple pour contracter les muscles et permet donc à l'individu de se déplacer. Morphologiquement la cellule est une sorte de petit sac rempli de liquide (milieu intracellulaire) baignant elle-même dans le liquide (milieu extracellulaire) composant le corps humain (un adulte est constitué environ de 65 % d'eau). La composition du milieu intracellulaire est différente de celle du milieu extracellulaire. Cette différence doit être maintenue pour que l'organisme fonctionne correctement. Une des différences majeures est la quantité de sodium. En effet il y a beaucoup plus de sodium à l'extérieur qu'à l'intérieur de la cellule. Bien que l'intérieur de la cellule soit isolé de l'extérieur par une membrane, le sodium arrive à passer à travers cette membrane, ce qui a tendance à augmenter la quantité de sodium dans la cellule et donc à diminuer sa différence de concentration entre le milieu extracellulaire et le milieu intracellulaire. Mais dans les membranes, il existe des pompes qui tournent et dont le rôle est de rejeter le sodium de la cellule. Ces pompes sont des protéines connues sous le nom de pompe à sodium ou Na,K-ATPase. On lui attribue le nom de Na,K-ATPase car en réalité elle rejette du sodium (Na) et en échange elle fait entrer dans la cellule du potassium (K), et pour fonctionner elle a besoin d'énergie (ATP). Lorsque les pompes à sodium ne fonctionnent pas bien, cela peut conduire à des maladies. En effet la Migraine Familiale Hémiplégique de type 2, est une migraine très rare qui se caractérise par l'apparition de la paralysie de la moitié d'un corps avant l'apparition du mal de tête. C'est une maladie génétique (altération qui modifie la fonction d'une protéine) qui touche la pompe à sodium située dans le cerveau. On a découvert que certaines altérations (mutations) empêchent les pompes à sodium de fonctionner correctement. On pense alors que le développement des migraines est en partie dû au fait que ces pompes fonctionnent moins bien. Il est important de bien connaître la fonction de ces pompes car cela permet de comprendre des mécanismes pouvant conduire à certaines maladies, comme les migraines. En biologie, la fonction d'une protéine est étudiée à travers sa structure. C'est pourquoi l'objectif de cette thèse a été d'étudier la structure de la Na,K-ATPase afin de mieux comprendre son mécanisme d'action.
Resumo:
Dans les administrations publiques suisses, la démultiplication de l'information de gestion et le non-renouvellement de postes de cadre soulèvent le problème d'une perte de la mémoire administrative. Deux grandes politiques institutionnelles « recentralisées » ayant trait aux ressources du secteur public en matière d'information et de personnel sont appelées à pallier le risque d'une telle amnésie, jugée dangereuse malgré le souci d'éviter de mémoriser toute information documentaire et non documentaire (cette dernière stockée dans le cerveau des fonctionnaires, notamment ceux occupant des postes clés). Dans cet article, je montre comment on se propose avec ces deux politiques de relever ce défi et je souligne la nécessité d'une interconnexion plus étroite entre elles pour éviter le risque d'une déstabilisation conséquente du fonctionnement de l'État et de la société civile induite par une amnésie collective.
Resumo:
L'affirmation de soi à travers l'adoption d'un pseudonyme se présente comme une forme d'autocréation qui répond à l'acte d'écriture, en tant que forme première d'une individualité dans la langue. Le nouveau nom remplit la fonction symbolique d'invention de soi par la nomination, tout en jouant, chez certains écrivains d'Afrique noire, de l'inscription d'une autre langue au sein de l'onomastique française. Pour certains d'entre eux, l'autonomination apparaît même comme un acte de guérilla, une affirmation de soi et non une dissimulation, marquée au coin de l'onomastique africaine et d'un contexte historico-politique qui lui donne sens. Dans le cadre de cet article, à considérer comme l'esquisse d'une réflexion abordant un champ encore peu exploré, il s'agit d'envisager les divers enjeux de la nomination en Afrique noire, puis d'interroger les pratiques d'écrivains pseudonymes, tels Sony Labou Tansi, Mongo Beti et Ken Bugul, qui constituent des cas de figure particulièrement significatifs de cette pratique. Self-affirmation via the adoption of a pseudonym constitues a form of self-creation springing from the act of writing, in the guise of a primary shape given within language to an individual. The new name fulfills the symbolic function of inventing oneself through nomination while playing on - in the instance of certain black African writers - the inscription of another language within French onomastics. For one, self-naming appears as a « guerilla action », an affirmation of self and not its dissimulation, marked on the edges by African onomastics and an historico-political context that gives the meaning. In this article, offered as an outline of an approch to an little-explored field of investigation, we seek to identify the various stakes related to naming in black Africa, before examining specific techniques demonstrated by pseudonymous writers such as Sony Labou Tansi, Mongo Beti, and Ken Bugul, taken as exemplary and particulary significant in this domain.
Resumo:
RésuméLa H+-ATPase vacuolaire (V-ATPase) est un complexe enzymatique composé de deux secteurs multimériques (VQ et Vi) dont l'association dans la cellule est réversible. Le secteur intramembranaire de la V-ATPase (V0) interagit physiquement avec des protéines SNARE et stimule la fusion homotypique des vacuoles de la levure (lysosomes), la sécrétion de neurotransmetteurs et d'insuline, la fusion entre phagosome et lysosome ainsi que la sécrétion des corps multivésiculaires par un mécanisme inconnu. Dans cette étude j'ai identifié des résidues d'acides amines situés dans des sous-unités de V0 impliqués dans le mécanisme de fusion des vacuoles mais non essentiels pour l'acidification vacuolaire par la V-ATPase. j'ai utilisé un protocole de mutagenèse aléatoire pour produire des libraries de mutants des sous unités de V0. Ces libraries ont été analysées in vivo afin d'identifier des alleles qui permettent la translocation des protons mais produisent une vacuole fragmentée, phénotype indiquant un défaut dans la fusion membranaire. Les vacuoles des mutants ont été isolées et caractéisées en utilisant une grande variété d'outils biochimiques pour déterminer précisément l'impact des différentes mutations sur l'accomplissement d'événements clés du processus de fusion.J'ai identifié des mutations associées à des défauts spécifiques de la fusion dans plusieurs sous-unités de V0. Dans les protéolipides c, c' et c" ces mutations se concentrent dans la partie cytosolique des domaines transmembranaires. Elles renforcent les associations entre les secteurs de la V-ATPase et entre V0 et les SNAREs. Dans la fusion vacuolaire ces mutations permettent la formation de complexes SNAREs en trans mais inhibent l'induction de la fusion. Par contre, la deletion de la sous- unité d influence les étapes de la fusion qui précèdent la formation des complexes trans-SNAREs. Mes résultats démontrent que V0 joue des rôles différents dans plusieurs étapes de la fusion et que ces fonctions sont liées au système des SNAREs. Ils différencient génétiquement les activités de V0 dans la translocation des protons et dans la fusion et identifient de nombreux résidus importants pour la fusion vacuolaire. De plus, compte tenu de la grande conservation de sequence des protéolipides chez les eukaryotes les mutations identifiées dans cette l'étude apportent de nouvelles informations pour analyser la fonction de V0 dans des organismes multicellulaires pour lesquels la function catalytique de la V-ATPase est essentielle à la survie.Résumé pour le large publicLe transport de protéines et de membranes est important pour maintenir la fonction des organelles dans la cellule. Il s'excerce au niveau des vesicules. La fusion membranaire est un processus élémentaire de ce transport. Pour fusionner deux membranes, il faut la coordination de deux activités: le rapprochement et la déstabiiization des deux membranes. La collaboration d'un ensemble de proteins conservés chez les eukaryotes, est nécessaire pour catalyser ces activités. Les proteins SNAREs sont les protagonistes principaux dans la fusion membranaire. Néanmoins, d'autres protéines, comme des Rab-GTPases et des chaperonnes, sont nécessaires pour permettre ce phénomène de fusion. Toutes ces protéines sont temporairement associées avec les SNAREs et leur fonction dans la fusion membranaire est souvent directement liée à leur activité dans cette association. Le secteur transmembranaire V0 de la V-ATPase rnteragit avec des SNAREs et est essentiel pour la fusion dans une variété de systèmes modèles comme la mouche, la souris et la levure. Le secteur V0 est composé de six protéines différentes. Avec te secteur Va, qui réside dans le cytosol, il forme la V-ATPase dont la fonction principale est l'acidification des organelles par translocation des protons à travers la membrane par un mécanisme ressemblant à celui d'une pompe. V0joue un role dans la fusion membranaire, indépendamment de son activité catalytique liée au pompage des protons, et ce rôle est encore largement méconnu à ce jour. Le but de ma thèse était de mieux comprendre l'implication de V0 dans ce contexte.Pour étudier des activités liées à la V-ATPase, la levure est un excellent modèle d'étude car elle survie à une inactivation de l'enzyme alors que le meme traitement serait léthal pour des organismes multicellulaires. Dans ma thèse j'ai utilisé la fusion homotypique de la vacuole de levure comme système modèle pour étudier le rôle de V0 dans la fusion. J'ai muté des gènes qui encodent des sous- unités de V0 et les ai introduit dans des souches privées des gènes respectifs. Dans les librairies de souches portant différentes versions de ces gènes j'ai cherché des clones exprimant une V-ATPase intacte et fonctionnelle mais qui possèdent une vacuole fragmentée. Le plus souvent, une vacuole fragmentée indique un défaut dans la fusion vacuolaire. Dans les trois types de protéolipides qui composent un cylindre dans le secteur V0, j'ai trouvé des clones avec une vacuole fragmentée. Après avoir isolé les mutations responsable de ce type de morphologie vacuolaire, j'ai isolé les vacuoles de ces clones pour étudier leur activités dans différentes étapes de la fusion vacuolaire. Les résultats de ces analyses mettent en évidence une implication de V0 dans plusieurs étapes de la fusion vacuolaire. Certaines mutations sélectionnées dans mon étude inhibent une étape précoce de la fusion qui inclue la dissociation des complexes SNARE, tandis que d'autres mutations inhibent une étape tardive du processus de fusion qui inclue la transmission d'une force disruptive dans la membrane.AbstractThe membrane-integral V0 sector of the vacuolar H+-ATPase (V-ATPase) interacts with SNARE proteins. V0 stimulates fusion between yeast vacuoles (lysosomes) (Peters et al., 2001b), secretion of neurotransmitters and insulin (Hiesinger et al., 2005a, Sun-Wada et al., 2006a), phagosome-lysosome fusion (Peri and Nusslein-Volhard, 2008) and secretion of multivesicular bodies (Liegeois et al., 2006b) by a yet unknown mechanism. In my thesis, I identified sites in V0 subunits that are involved in yeast vacuole fusion but dispensable for the proton pumping by the V-ATPase. I randomly mutagenized V0 subunits and screened in vivo for mutant alleles that support proton pumping but cause fragmented vacuoles, a phenotype indicative of a fusion defect. Mutant vacuoles were isolated and analyzed in a cell-free system, allowing assay of key events in fusion, such as trans-SNARE pairing, lipid transition and fusion pore opening (Reese et al., 2005b).Mutants with selective fusion defects were found in several V0 subunits. In the proteolipids c, c' and c", critical mutations are concentated in the cytosolic half of the transmembrane domains. These mutations rendered the V-ATPase holoenzyme more stable and modulated V0-SNARE associations. In vacuole fusion critical proteolipid mutations permitted trans-SNARE pairing but impeded the induction of lipid flow between the membranes. Deletion of subunit d, by contrast, influenced early stages of fusion that precede trans-SNARE pairing. My results show that V0 acts in several steps of the fusion process and that its function is intimately connected to the SNARE system. They genetically separate the proton pump and fusion activities of V0 and identify numerous critical residues. Given the high sequence conservation of proteolipids in eukaryotic life, the identified mutations may be helpful in analyzing the fusion function of V0 also in mammalian cells, where V- ATPase pump function is essential for survival.
Resumo:
La littérature Avatamsaka comprend un ensemble considérable de textes canoniques et de commentaires qui décrivent la carrière du Bodhisattva par étapes. Le principal texte canonique existe en deux versions chinoises, celle de VAvtamsaka ancien (T278, 60 juan) traduite en 418 à 420 et celle de VAvtamsaka nouveau (T279, 80 juan) traduite 695 à 699. La méthode que j'ai choisie pour mon travail consiste principalement, en suivant les étapes de la carrière du Bodhisattva dans VAvatamsaksa, à extraire et à traduire des passages des commentaire de Fazang (643-712) basé sur la version ancienne (T1733) et de Li Tongxuan (635-730) fondé sur la version nouvelle (T1739). A travers ces traductions, nous avons essayé de pénétrer la doctrine de l'école Huayan. Méthodologie (I-XVII) : Elle présente le tableau des étapes de la carrière du Bodhisattva. dans l'éd. Taisho T278, T279, T293, le commentaire de Fazang et celui de Li Tongxuan, en ajoutant les termes sanscrits du Dasabhûmika-sûtra et du Ganda-vyûha comme une sorte de mots -clefs. Introduction (p. 1-95) : Interprétation du titre de VAvatamsaka chez les maîtres Huayan (p. 3-9). Présenter le tableau des 7 lieux, des 9 assemblées et 39 chapitres de T279 comme la structure de Y Avatamsaka. Ensuite, dans la biographie de Fazang, présenter sa vie (p. 58-61) et ses ouvrages : traduction de leur titre, bref résumé de leur contenu (p. 62-72) ; dans la biographie de Li Tongxuan, présenter sa vie (p. 75-82) et surtout sa pensée original (p. 86-95). Ch. I. L'Eveil correct (p. 96-161) ; Ce chapitre présente d'emblée l'Eveil correct, qui est le fruit de Buddha et le terminus de la carrière du Bodhisattva. C'est la raison pour laquelle les commentaires présentent l'interprétation de l'accomplissement pour la première fois de l'Eveil correct ainsi que le champ de Buddha appelé l'univers du trésor de lotus, pour faire produire la pensée de l'Eveil aux êtres. Ch. II. Les dix pensées de foi (p. 162-234) : Cette étape préliminaire consiste à avoir la foi, en d'autres termes, la conviction ou le consentement à l'égard du Dharma du Buddha. Dans ce chapitre, j'ai traduit le passage du commentaire de Li Tongxuan sur le chapitre des noms du Tathâgata (p. 189-234) qui illustre l'étape des dix pensées de foi. Ch. III. Les étapes des Trois Sages (p. 235-290) : Concernant les trois étapes suivantes ; les dix résidences, les dix pratiques et les dix transferts, appelées spécialement les étapes des Trois Sages, j'ai fait un chapitre d'ensemble. Ces étapes montrent symboliquement le chemin ascensionnel dynamique du Sûtra dont les assemblées se déroulent dans les cieux de plus en plus élevés. Conclusion : Dans l'Avatamsaka, j'ai constaté que le sous-jacent est dans le vide ontologique, et le manifeste dans la fantasmagorie phénoménologique. Au fond, dans Y Avatamsaka l'évacuation prajnâpâramitique et la multiplication fantasmagorique sont identiques. Mais fantasmagorie et vide jouent pour ainsi dire à cache-cache ; le vide et la fantasmagorie, entre les deux il n'y a pas d'obstacle, ils surgissent sans cesse en alternance. Donc, on peut dire que Y Avatamsaka exprime une phénoménologie vacuitaire.