999 resultados para Modèles : atmosphère
Resumo:
SUMMARY : The arbuscular mycorrhizal (AM) symbiosis is an evolutionarily ancient association between most land plants and Glomeromycotan fungi that is based on the mutual exchange of nutrients between the two partners. Its structural and physiological establishment is a multi-step process involving a tightly regulated signal exchange leading to intracellular colonization of roots by the fungi. Most research on the molecular biology and genetics of symbiosis development has been performed in dicotyledonous model legumes. In these, a plant signaling pathway, the common SYM pathway, has been found to be required for accommodation of both root symbionts rhizobia and AM fungi. Rice, a monocotyledon model and the world's most important staple crop also forms AM symbioses, has been largely ignored for studies of the AM symbiosis. Therefore in this PhD work functional conservation of the common SYM pathway in rice was addressed and demonstrated. Mycorrhiza-specific marker genes were established that are expressed at different stages of AM development and therefore represent readouts for various AM-specific signaling events. These tools were successfully used to obtain evidence for a yet unknown signaling network comprising common SYM-dependent and -independent events. In legumes AM colonization induces common SYM signaling dependent changes in root system architecture. It was demonstrated that also in rice, root system architecture changes in response to AM colonization but these alterations occur independently of common SYM signaling. The rice root system is complex and contains three different root types. It was shown that root type identity influences the quantity of AM colonization, indicating root type specific symbiotic properties. Interestingly, the root types differed in their transcriptional responses to AM colonization and the less colonized root type responded more dramatically than the more strongly colonized root type. Finally, in an independent project a novel mutant, inhospitable (iho), was discovered. It is perturbed at the most early step of AM colonization, namely differentiation of the AM fungal hyphae into a hyphopodium at the root surface. As plant factors required for this early step are not known, identification of the IHO gene will greatly contribute to the advance of mycorrhiza RÉSUMÉ : La symbiose mycorhizienne arbusculaire (AM) est une association évolutionnairement ancienne entre la majorité des plantes terrestres et les champignons du type Glomeromycota, basée sur l'échange mutuel d'éléments nutritifs entre les deux partenaires. Son établissement structural et physiologique est un processus en plusieurs étapes, impliquant des échanges de signaux étroitement contrôlés, aboutissant à la colonisation intracellulaire des racines par le champignon. La plupart des recherches sur la biologie moléculaire et la génétique du développement de la symbiose ont été effectuées sur des légumineuses dicotylédones modèles. Dans ces dernières, une voie de signalisation, la voie SYM, s'est avérée nécessaire pour permettre la mise en place de la symbiose mycorhizienne. Chez les plantes monocotylédones, comme le riz, une des céréales les plus importantes, nourrissant la moitié de la population mondiale, peu de recherches ont été effectuées sur les bases de la cette symbiose. Dans ce travail de thèse, la conservation fonctionnelle de la voie commune SYM chez le riz a été étudiée et démontrée. De plus, des gènes marqueurs spécifiques des différentes étapes du développement de l'AM ont été identifiés, permettant ainsi d'avoir des traceurs de la colonisation. Ces outils ont été utilisés avec succès pour démontrer l'existence d'un nouveau réseau de signalisation, comprenant des éléments SYM dépendant et indépendant. Chez les légumineuses, la colonisation par les AM induit des changements dans l'architecture du système racinaire, via la signalisation SYM dépendantes. Cependant chez le riz, il a été démontré que l'architecture de système racinaire changeait suite à la colonisation de l'AM, mais ceux, de façon SYM indépendante. Le système racinaire du riz est complexe et contient trois types différents de racines. Il a été démontré que le type de racine pouvait influencer l'efficacité de la colonisation par l'AM, indiquant que les racines ont des propriétés symbiotiques spécifiques différentes. De façon surprenante, les divers types de racines répondent de différemment suite à colonisation par l'AM avec des changements de la expression des gènes. Le type de racine le moins colonisé, répondant le plus fortement a la colonisation, et inversement. En parallèle, dans un projet indépendant, un nouveau mutant, inhospitable (iho), a été identifié. Ce mutant est perturbé lors de l'étape la plus précoce de la colonisation par l'AM, à savoir la différentiation des hyphes fongiques de l'AM en hyphopodium, à la surface des racines. Les facteurs d'origine végétale requis pour cette étape étant encore inconnus, l'identification du gène IHO contribuera considérablement a accroître nos connaissance sur les bases de la mise en place de cette symbiose.
Resumo:
À l'époque classique, la notion d'identité grecque s'est constituée par rapport à celle de « barbare ». Qu'en est-il dans les deux premiers siècles de l'Empire, où la diffusion de l'hellénisme est notamment le fait de sophistes grecs d'Asie Mineure, au sein d'un Empire caractérisé par la diversité ethnique, culturelle, religieuse et linguistique, et qui prône une politique d'intégration ? Le sophiste Dion de Pruse et l'écrivain Lucien de Samosate sont deux représentants de cet hellénisme impérial qui n'étaient pas des Grecs de Grèce propre, avaient beaucoup voyagé et éprouvé des déceptions dans leurs rapports avec le pouvoir romain. Cette étude compare leur réception et leurs usages des préjugés et des modèles grecs traditionnels, ainsi que leur représentation des notions d'altérité et de barbarie. Dion et Lucien diffusent, sous des aspects différents, un hellénisme qui est construit par rapport à la grécité classique et aux préjugés archétypaux que celle-ci transmettait.
Resumo:
RésuméLes champignons sont impliqués dans les cycles biogéochimiques de différentes manières. En particulier, ils sont reconnus en tant qu'acteurs clés dans la dégradation de la matière organique, comme fournisseurs d'éléments nutritifs via l'altération des minéraux mais aussi comme grands producteurs d'acide oxalique et de complexes oxalo-métalliques. Toutefois, peu de choses sont connues quant à leur contribution à la genèse d'autres types de minéraux, tel que le carbonate de calcium (CaCO3). Le CaCO3 est un minéral ubiquiste dans de nombreux écosystèmes et il joue un rôle essentiel dans les cycles biogéochimiques du carbone (C) et du calcium (Ca). Le CaCO3 peut être d'origine physico-chimique ou biogénique et de nombreux organismes sont connus pour contrôler ou induire sa biominéralisation. Les champignons ont souvent été soupçonnés d'être impliqué dans ce processus, cependant il existe très peu d'informations pour étayer cette hypothèse.Cette thèse a eu pour but l'étude de cet aspect négligé de l'impact des champignons dans les cycles biogéochimiques, par l'exploration de leur implication potentielle dans la formation d'un type particulier de CaCO3 secondaires observés dans les sols et dans les grottes des environnements calcaires. Dans les grottes, ces dépôts sont appelés moonmilk, alors que dans les sols on les appelle calcite en aiguilles. Cependant ces deux descriptions correspondent en fait au même assemblage microscopique de deux habitus particulier de la calcite: la calcite en aiguilles (au sens strict du terme cette fois-ci) et les nanofibres. Ces deux éléments sont des habitus aciculaires de la calcite, mais présentent des dimensions différentes. Leur origine, physico-chimique ou biologique, est l'objet de débats intenses depuis plusieurs années déjà.L'observation d'échantillons environnementaux avec des techniques de microscopie (microscopie électronique et micromorphologie), ainsi que de la microanalyse EDX, ont démontré plusieurs relations intéressantes entre la calcite en aiguilles, les nanofibres et des éléments organiques. Premièrement, il est montré que les nanofibres peuvent être organiques ou minérales. Deuxièmement, la calcite en aiguilles et les nanofibres présentent de fortes analogies avec des structures hyphales, ce qui permet de confirmer l'hypothèse de leur origine fongique. En outre, des expériences en laboratoire ont confirmé l'origine fongique des nanofibres, par des digestions enzymatiques d'hyphes fongiques. En effet, des structures à base de nanofibres, similaires à celles observées dans des échantillons naturels, ont pu être produites par cette approche. Finalement, des enrichissements en calcium ont été mesurés dans les parois des hyphes et dans des inclusions intrahyphales provenant d'échantillons naturels de rhizomorphes. Ces résultats suggèrent une implication de la séquestration de calcium dans la formation de la calcite en aiguilles et/ou des nanofibres.Plusieurs aspects restent à élucider, en particulier la compréhension des processus physiologiques impliqués dans la nucléation de calcite dans les hyphes fongiques. Cependant, les résultats obtenus dans cette thèse ont permis de confirmer l'implication des champignons dans la formation de la calcite en aiguilles et des nanofibres. Ces découvertes sont d'une grande importance dans les cycles biogéochimiques puisqu'ils apportent de nouveaux éléments dans le cycle couplé C-Ca. Classiquement, les champignons sont considérés comme étant impliqués principalement dans la minéralisation de la matière organique et dans l'altération minérale. Cette étude démontre que les champignons doivent aussi être pris en compte en tant qu'agents majeurs de la genèse de minéraux, en particulier de CaCO3. Ceci représente une toute nouvelle perspective en géomycologie quant à la participation des champignons au cycle biologique du C. En effet, la présence de ces précipitations de CaCO3 secondaires représente un court-circuit dans le cycle biologique du C puisque du C inorganique du sol se retrouve piégé dans de la calcite plutôt que d'être retourné dans l'atmosphère.AbstractFungi are known to be involved in biogeochemical cycles in numerous ways. In particular, they are recognized as key players in organic matter recycling, as nutrient suppliers via mineral weathering, as well as large producers of oxalic acid and metal-oxalate. However, little is known about their contribution to the genesis of other types of minerals such as calcium carbonate (CaCO3). Yet, CaC03 are ubiquitous minerals in many ecosystems and play an essential role in the biogeochemical cycles of both carbon (C) and calcium (Ca). CaC03 may be physicochemical or biogenic in origin and numerous organisms have been recognized to control or induce calcite biomineralization. While fungi have often been suspected to be involved in this process, only scarce information support this hypothesis.This Ph.D. thesis aims at investigating this disregarded aspect of fungal impact on biogeochemical cycles by exploring their possible implication in the formation of a particular type of secondary CaC03 deposit ubiquitously observed in soils and caves from calcareous environments. In caves, these deposits are known as moonmilk, whereas in soils, they are known as Needle Fibre Calcite (NFC - sensu lato). However, they both correspond to the same microscopic assemblage of two distinct and unusual habits of calcite: NFC {sensu stricto) and nanofibres. Both features are acicular habits of calcite displaying different dimensions. Whether these habits are physicochemical or biogenic in origin has been under discussion for a long time.Observations of natural samples using microscopic techniques (electron microscopy and micromorphology) and EDX microanalyses have demonstrated several interesting relationships between NFC, nanofibres, and organic features. First, it has shown that nanofibres can be either organic or minera! in nature. Second, both nanofibres and NFC display strong structural analogies with fungal hyphal features, supporting their fungal origin. Furthermore, laboratory experiments have confirmed the fungal origin of nanofibres through an enzymatic digestion of fungal hyphae. Indeed, structures made of nanofibres with similar features as those observed in natural samples have been produced. Finally, calcium enrichments have been measured in both cell walls and intrahyphal inclusions of hyphae from rhizomorphs sampled in the natural environment. These results point out an involvement of calcium sequestration in nanofibres and/or NFC genesis.Several aspects need further investigation, in particular the understanding of the physiological processes involved in hyphal calcite nucleation. However, the results obtained during this study have allowed the confirmation of the implication of fungi in the formation of both NFC and nanofibres. These findings are of great importance regarding global biogeochemical cycles as they bring new insights into the coupled C and Ca cycles. Conventionally, fungi are considered to be involved in organic matter mineralization and mineral weathering. In this study, we demonstrate that they must also be considered as major agents in mineral genesis, in particular CaC03. This is a completely new perspective in geomycology regarding the role of fungi in the short-term (or biological) C cycle. Indeed, the presence of these secondary CaC03 precipitations represents a bypass in the short- term carbon cycle, as soil inorganic C is not readily returned to the atmosphere.
Resumo:
La notion d'intersubjectivité est au coeur des débats contemporains dans le champ de la psychologie. L'intersubjectivité traverse en effet les différentes approches de la psychologie, des neurosciences à la psychologie sociale, des perspectives développementales aux approches psychoaffectives de la personnalité, des contextes de l'apprentissage à ceux du soin. Cet ouvrage collectif, premier volume de la collection Actualités psychologiques, se propose de faire le point sur cette notion et d'apporter des pistes actuelles de compréhension aux enjeux de la place de l'autre et de l'altérité dans la construction du sujet. Des chercheurs de renommée internationale, de Suisse et de différents pays européens, apportent ici leur contribution, dans différents domaines de la psychologie, invitant au dialogue entre les modèles théoriques qui sous-tendent la notion d'intersubjectivité et entre les méthodologies qui permettent d'en appréhender la dynamique. Contribution exceptionnelle, cet ouvrage est à destination de tous, psychologues praticiens et professionnels de la relation, chercheurs et étudiants en psychologie ou dans des disciplines connexes. Il permet d'approcher l'intersubjectivité comme une notion tout à la fois familière et complexe, au service de la rencontre de l'autre.
Resumo:
In mammals, the presence of excitable cells in muscles, heart and nervous system is crucial and allows fast conduction of numerous biological information over long distances through the generation of action potentials (AP). Voltage-gated sodium channels (Navs) are key players in the generation and propagation of AP as they are responsible for the rising phase of the AP. Navs are heteromeric proteins composed of a large pore-forming a-subunit (Nav) and smaller ß-auxiliary subunits. There are ten genes encoding for Navl.l to Nav1.9 and NaX channels, each possessing its own specific biophysical properties. The excitable cells express differential combinations of Navs isoforms, generating a distinct electrophysiological signature. Noteworthy, only when anchored at the membrane are Navs functional and are participating in sodium conductance. In addition to the intrinsic properties of Navs, numerous regulatory proteins influence the sodium current. Some proteins will enhance stabilization of membrane Navs while others will favour internalization. Maintaining equilibrium between the two is of crucial importance for controlling cellular excitability. The E3 ubiquitin ligase Nedd4-2 is a well-characterized enzyme that negatively regulates the turnover of many membrane proteins including Navs. On the other hand, ß-subunits are known since long to stabilize Navs membrane anchoring. Peripheral neuropathic pain is a disabling condition resulting from nerve injury. It is characterized by the dysregulation of Navs expressed in dorsal root ganglion (DRG) sensory neurons as highlighted in different animal models of neuropathic pain. Among Navs, Nav1.7 and Nav1.8 are abundantly and specifically expressed in DRG sensory neurons and have been recurrently incriminated in nociception and neuropathic pain development. Using the spared nerve injury (SNI) experimental model of neuropathic pain in mice, I observed a specific reduction of Nedd4-2 in DRG sensory neurons. This decrease subsequently led to an upregulation of Nav1.7 and Nav1.8 protein and current, in the axon and the DRG neurons, respectively, and was sufficient to generate neuropathic pain-associated hyperexcitability. Knocking out Nedd4-2 specifically in nociceptive neurons led to the same increase of Nav1.7 and Nav1.8 concomitantly with an increased thermal sensitivity in mice. Conversely, rescuing Nedd4-2 downregulation using viral vector transfer attenuated neuropathic pain mechanical hypersensitivity. This study demonstrates the significant role of Nedd4-2 in regulating cellular excitability in vivo and its involvement in neuropathic pain development. The role of ß-subunits in neuropathic pain was already demonstrated in our research group. Because of their stabilization role, the increase of ßl, ß2 and ß3 subunits in DRGs after SNI led to increased Navs anchored at the membrane. Here, I report a novel mechanism of regulation of a-subunits by ß- subunits in vitro; ßl and ß3-subunits modulate the glycosylation pattern of Nav1.7, which might account for stabilization of its membrane expression. This opens new perspectives for investigation Navs state of glycosylation in ß-subunits dependent diseases, such as in neuropathic pain. - Chez les mammifères, la présence de cellules excitables dans les muscles, le coeur et le système nerveux est cruciale; elle permet la conduction rapide de nombreuses informations sur de longues distances grâce à la génération de potentiels d'action (PA). Les canaux sodiques voltage-dépendants (Navs) sont des participants importants dans la génération et la propagation des PA car ils sont responsables de la phase initiale de dépolarisation du PA. Les Navs sont des protéines hétéromériques composées d'une grande sous-unité a (formant le pore du canal) et de petites sous-unités ß accompagnatrices. Il existe dix gènes qui codent pour les canaux sodiques, du Nav 1.1 au Nav 1.9 ainsi que NaX, chacun possédant des propriétés biophysiques spécifiques. Les cellules excitables expriment différentes combinaisons des différents isoformes de Navs, qui engendrent une signature électrophysiologique distincte. Les Navs ne sont fonctionnels et ne participent à la conductibilité du Na+, que s'ils sont ancrés à la membrane plasmique. En plus des propriétés intrinsèques des Navs, de nombreuses protéines régulatrices influencent également le courant sodique. Certaines protéines vont favoriser l'ancrage et la stabilisation des Navs exprimés à la membrane, alors que d'autres vont plutôt favoriser leur internalisation. Maintenir l'équilibre des deux processus est crucial pour contrôler l'excitabilité cellulaire. Dans ce contexte, Nedd4-2, de la famille des E3 ubiquitin ligase, est une enzyme bien caractérisée qui régule l'internalisation de nombreuses protéines, notamment celle des Navs. Inversement, les sous-unités ß sont connues depuis longtemps pour stabiliser l'ancrage des Navs à la membrane. La douleur neuropathique périphérique est une condition débilitante résultant d'une atteinte à un nerf. Elle est caractérisée par la dérégulation des Navs exprimés dans les neurones sensoriels du ganglion spinal (DRG). Ceci a été démontré à de multiples occasions dans divers modèles animaux de douleur neuropathique. Parmi les Navs, Nav1.7 et Nav1.8 sont abondamment et spécifiquement exprimés dans les neurones sensoriels des DRG et ont été impliqués de façon récurrente dans le développement de la douleur neuropathique. En utilisant le modèle animal de douleur neuropathique d'épargne du nerf sural (spared nerve injury, SNI) chez la souris, j'ai observé une réduction spécifique des Nedd4-2 dans les neurones sensoriels du DRG. Cette diminution avait pour conséquence l'augmentation de l'expression des protéines et des courants de Nav 1.7 et Nav 1.8, respectivement dans l'axone et les neurones du DRG, et était donc suffisante pour créer l'hyperexcitabilité associée à la douleur neuropathique. L'invalidation pour le gène codant pour Nedd4-2 dans une lignée de souris génétiquement modifiées a conduit à de similaires augmentations de Nav1.7 et Nav1.8, parallèlement à une augmentation à la sensibilité thermique. A l'opposé, rétablir une expression normale de Nedd4-2 en utilisant un vecteur viral a eu pour effet de contrecarrer le développement de l'hypersensibilité mécanique lié à ce modèle de douleur neuropathique. Cette étude démontre le rôle important de Nedd4-2 dans la régulation de l'excitabilité cellulaire in vivo et son implication dans le développement des douleurs neuropathiques. Le rôle des sous-unités ß dans les douleurs neuropathiques a déjà été démontré dans notre groupe de recherche. A cause de leur rôle stabilisateur, l'augmentation des sous-unités ßl, ß2 et ß3 dans les DRG après SNI, conduit à une augmentation des Navs ancrés à la membrane. Dans mon travail de thèse, j'ai observé un nouveau mécanisme de régulation des sous-unités a par les sous-unités ß in vitro. Les sous-unités ßl et ß3 régulent l'état de glycosylation du canal Nav1.7, et stabilisent son expression membranaire. Ceci ouvre de nouvelles perspectives dans l'investigation de l'état de glycosylation des Navs dans des maladies impliquant les sous-unités ß, notamment les douleurs neuropathiques.
Resumo:
ÁBSTRACT : Mammary gland is composed of two main epithelial cell types, myoepithelial and luminal. The mechanisms involved in determination and maintenance of them remain poorly understood. Notch signaling is known to regulate cell fate determination in other tissues like skin and nervous system. It was also shown that it can act as tumor suppressor or oncogene depending on the tissue type. The mouse models overexpressing active Notch receptors indicated that Notch signaling is oncogenic in the mammary gland. This observation was followed by some descriptive and functional studies in human breast cancer and it was reported that Notch signaling activity or expression of its components are increased in some of the breast tumor samples compared to normal tissue. However, the physiological role of the Notch signaling and its downstream mechanisms in mammary gland is poorly defined. p63, a member of p53 family, has been implicated in the cell fate determination of keratinocytes. Knockout mouse models revealed that p63 is required for the formation of the mammary anlagen in embryo and its ΔN isoform is expressed exclusively in the myoepithelial layer of the adult breast. In order to understand its function in normal breast epithelial cells, I activated Notch signaling by expression of Notch1 intracellular domain (NICD) in normal primary human breast epithelial cells (HBECs). In this context, NICD reduced growth of HBECs and led to downmodulation of extracellular matrix-receptor interaction network (ECM) components as well as ΔNp63. Expression of ΔNp63 together with NICD partially rescued Notch induced growth reduction, which was correlated with an increase in ECM components. Moreover, silencing ΔNp63 in myoepithelial HBECs reduced growth similar to Notch activation and it led to downregulation of myoepithelial and upregulation of luminal markers. Complementing this observation, forced expression of ONp63 in luminal HBECs induced myoepithelial phenotype and decreased luminal markers. In vivo, by the analysis of a Notch reporter mouse strain, I showed that Notch is activated during puberty specifically at the sites of ductal morphogenesis, terminal end buds. FAGS analysis revealed that it can be detected in two different populations based on CD24 expression (low (lo) or high (high)): at lower levels in CD24lo, which includes stem/progenitor and myoepithelial cells and higher levels in CD24hi, which contains luminal cells. In parallel with in vitro results, the CD24lo mouse mammary epithelial cells displaying Notch activity have lower levels of p63 expression. Furthermore, deletion of RBPjk, the main mediator of Notch signaling, or the overexpression of ΔNp63 inhibited luminal cell lineage in vivo. Another important point revealed by Notch reporter mouse strain is the simultaneous activation of Notch with estrogen signaling during pubertal development. The expression of FOXA1, the mediator of estrogen receptor (ER) transcriptional activity, is correlated with Notch activation in vivo that it is lower in CD24lo than in CD24hi cells. Moreover, FOXA1 is regulated by NICD in vitro supporting the presence of a link between Notch and ER signaling. Taken together, I report that Notch signaling is involved in luminal cell fate determination and its effects are partially mediated through inhibition of ONp63. Besides, ΔNp63 is required for the maintenance and sufficient for the induction of myoepithelial phenotype in HBECs in vitro and is not compatible with luminal lineage in vivo. Based on these results, I propose a model for epithelial cell hierarchy in mammary gland, whereby there are two different types of luminal progenitors, early and late, displaying different levels of Notch activity. Notch signaling contributes to the determination of luminal cell lineage in these two progenitor steps: In "Early Luminal Progenitor" stage, it inhibits myoepithelial fate by decreasing p63 expression, and in "Late Luminal Progenitor" stage, Notch signaling is involved in induction of luminal lineage by acting on ER-FOXA1 axis. It has to be investigated further whether Notch signaling might behave as an oncogene or tumor suppressor depending on which cell type in the epithelial hierarchy it is modulated and which one is more likely to occur in different human breast cancer types. RÉSUMÉ : La glande mammaire est composée de deux types principaux de cellules: les cellules luminales, qui bordent le lumen et les cellules myoépithéliales, qui se trouvent entre la lame basale et les cellules luminales. Les mécanismes intervenant dans leur différenciation et leur maintenance demeurent encore mal compris. La protéine transmembranaire Notch est connue pour déterminer le destin des cellules dans plusieurs types de tissus comme la peau ou le système nerveux. Selon le type de tissu dans lequel se trouve Notch, il agira soit comme un suppresseur de tumeur soit comme un oncogène. A l'aide de modèles de souris surexprimant les récepteurs actifs de Notch, il a été démontré que la voie de signalisation de Notch est oncogénique au niveau de la glande mammaire. Des études descriptives et fonctionnelles dans le cadre du cancer du sein ont permis de mettre en évidence une augmentation de l'activité de Notch ou de l'expression de ces composants dans certains tissus cancéreux. Toutefois, le rôle physiologique de Notch et des mécanismes qu'il active restent méconnus. P63, une protéine membre de la famille p53, est impliquée dans la différenciation des kératinocytes. Le modèle issu de l'étude des souris p63 knockout a révélé que cette protéine est requise pour la formation des primordia mammaires chez l'embryon et que son isoforme ΔNp63 est exclusivement exprimée dans la couche myoépithéliale de la glande mammaire adulte. Dans le but de comprendre les fonctions physiologiques de Notch, je l'ai activé en exprimant le domaine intracellulaire de Notch 1 (NICD) dans des cellules épithéliales primaires de glande mammaire humaine (HBECs). Le NICD a alors réduit la croissance des HBECs et conduit à la régulation négative non seulement de p63 mais également des composants du réseau d'interaction des récepteurs de la matrice extracellulaire (ECM). En exprimant conjointement ΔNp63 et NICD, il est apparu que la réduction de croissance induite par Notch était partiellement compensée, et qu'il y avait également une augmentation des composants ECM. De plus, lorsque ΔNp63 a été inactivé dans les cellules HBECs myoépithéliales, une réduction de croissance cellulaire identique à celle provoquée par l'activation de Notch a pu être mise en évidence, de même qu'une régulation négative des marqueurs myoépithéliaux ainsi qu'une augmentation des marqueurs luminaux. Afin de compléter ces informations, l'expression de ΔNp63 a été forcée dans les HBECs luminales, ce qui a induit un phénotype myoépithélial et une diminution des marqueurs lumineux. In vivo, par l'analyse de souris ayant un gène rapporteur de l'activité de Notch, j'ai démontré que Notch est activé pendant la puberté au niveau des sites de la morphogenèse canalaire, à savoir les bourgeons terminaux. Les analyses par FACS (Fluorescence-activated cell sorting) basées sur l'expression de l'antigène CD24 ont révélé qu'il peut tre détecté dans deux populations différentes : une population qui l'exprime faiblement, qui regroupe les cellules souches/progéniteurs et les cellules myoépithéliales, et une population qui l'exprime fortement qui est composé des cellules luminales. Parallèlement aux résultats in vitro, j'ai mis en évidence un faible niveau d'expression de p63 dans les cellules épithéliales de la glande mammaire de souris, exprimant faiblement l'antigène CD24 et présentant une activité de Notch. De plus, la délétion de RBPjr~, médiateur principal de la signalisation de Notch, ainsi que la surexpression de ΔNp63 in vivo ont inhibé la lignée des cellules luminales. Un autre point important révélé par les souris rapporteur de l'activité de Notch a été l'activation simultanée de Notch et de la signalisation de l'oestrogène pendant le développement pubertaire. L'expression de FOXA1, médiateur de l'activité transcriptionnelle des récepteurs aux oestrogènes (ER), est en corrélation avec l'activation de Notch in vivo, plus basse dans les cellules avec une faible expression de l'antigène CD24 que dans celles avec une forte expression. De plus, FOXA1 est régulé par NICD in vitro confirmant la présence d'un lien entre Notch et la signalisation des ER. En résumé, la signalisation de Notch est impliquée dans la détermination du destin cellulaire des cellules luminales et ses effets sont partiellement modifiés par l'inhibition de ΔNp63. ΔNp63 est requis pour la maintenance et est suffisant pour l'induction du phénotype myoépithéliale dans les HBECs in vitro et ne peut donc pas se trouver dans les cellules luminales in vivo. Basé sur ces résultats, je propose un modèle de hiérarchisation des cellules épithéliales de la glande mammaire, dans lequel sont présents deux types de progéniteurs des cellules luminales exprimant des niveaux différents d'activité de Notch, les progéniteurs lumineux précoces et tardifs. La signalisation de Notch contribue à la différenciation de la lignée cellulaire luminale au niveau de ces deux progéniteurs : dans la forme précoce, il inhibe la différenciation des cellules myoépithéliales en réduisant l'expression de p63 et dans la forme tardive, Notch est impliqué dans l'induction de la lignée luminale en agissant sur l'axe ER-FOXA1. Il serait nécessaire d'investiguer plus loin si le fait que Notch agisse comme oncogène ou suppresseur de tumeur dépend du stade de différenciation de la cellule dans laquelle il est modulé et laquelle de ces deux fonctions il est le plus probable de rencontrer dans les différents types de cancer du sein.
Resumo:
Les instabilités engendrées par des gradients de densité interviennent dans une variété d'écoulements. Un exemple est celui de la séquestration géologique du dioxyde de carbone en milieux poreux. Ce gaz est injecté à haute pression dans des aquifères salines et profondes. La différence de densité entre la saumure saturée en CO2 dissous et la saumure environnante induit des courants favorables qui le transportent vers les couches géologiques profondes. Les gradients de densité peuvent aussi être la cause du transport indésirable de matières toxiques, ce qui peut éventuellement conduire à la pollution des sols et des eaux. La gamme d'échelles intervenant dans ce type de phénomènes est très large. Elle s'étend de l'échelle poreuse où les phénomènes de croissance des instabilités s'opèrent, jusqu'à l'échelle des aquifères à laquelle interviennent les phénomènes à temps long. Une reproduction fiable de la physique par la simulation numérique demeure donc un défi en raison du caractère multi-échelles aussi bien au niveau spatial et temporel de ces phénomènes. Il requiert donc le développement d'algorithmes performants et l'utilisation d'outils de calculs modernes. En conjugaison avec les méthodes de résolution itératives, les méthodes multi-échelles permettent de résoudre les grands systèmes d'équations algébriques de manière efficace. Ces méthodes ont été introduites comme méthodes d'upscaling et de downscaling pour la simulation d'écoulements en milieux poreux afin de traiter de fortes hétérogénéités du champ de perméabilité. Le principe repose sur l'utilisation parallèle de deux maillages, le premier est choisi en fonction de la résolution du champ de perméabilité (grille fine), alors que le second (grille grossière) est utilisé pour approximer le problème fin à moindre coût. La qualité de la solution multi-échelles peut être améliorée de manière itérative pour empêcher des erreurs trop importantes si le champ de perméabilité est complexe. Les méthodes adaptatives qui restreignent les procédures de mise à jour aux régions à forts gradients permettent de limiter les coûts de calculs additionnels. Dans le cas d'instabilités induites par des gradients de densité, l'échelle des phénomènes varie au cours du temps. En conséquence, des méthodes multi-échelles adaptatives sont requises pour tenir compte de cette dynamique. L'objectif de cette thèse est de développer des algorithmes multi-échelles adaptatifs et efficaces pour la simulation des instabilités induites par des gradients de densité. Pour cela, nous nous basons sur la méthode des volumes finis multi-échelles (MsFV) qui offre l'avantage de résoudre les phénomènes de transport tout en conservant la masse de manière exacte. Dans la première partie, nous pouvons démontrer que les approximations de la méthode MsFV engendrent des phénomènes de digitation non-physiques dont la suppression requiert des opérations de correction itératives. Les coûts de calculs additionnels de ces opérations peuvent toutefois être compensés par des méthodes adaptatives. Nous proposons aussi l'utilisation de la méthode MsFV comme méthode de downscaling: la grille grossière étant utilisée dans les zones où l'écoulement est relativement homogène alors que la grille plus fine est utilisée pour résoudre les forts gradients. Dans la seconde partie, la méthode multi-échelle est étendue à un nombre arbitraire de niveaux. Nous prouvons que la méthode généralisée est performante pour la résolution de grands systèmes d'équations algébriques. Dans la dernière partie, nous focalisons notre étude sur les échelles qui déterminent l'évolution des instabilités engendrées par des gradients de densité. L'identification de la structure locale ainsi que globale de l'écoulement permet de procéder à un upscaling des instabilités à temps long alors que les structures à petite échelle sont conservées lors du déclenchement de l'instabilité. Les résultats présentés dans ce travail permettent d'étendre les connaissances des méthodes MsFV et offrent des formulations multi-échelles efficaces pour la simulation des instabilités engendrées par des gradients de densité. - Density-driven instabilities in porous media are of interest for a wide range of applications, for instance, for geological sequestration of CO2, during which CO2 is injected at high pressure into deep saline aquifers. Due to the density difference between the C02-saturated brine and the surrounding brine, a downward migration of CO2 into deeper regions, where the risk of leakage is reduced, takes place. Similarly, undesired spontaneous mobilization of potentially hazardous substances that might endanger groundwater quality can be triggered by density differences. Over the last years, these effects have been investigated with the help of numerical groundwater models. Major challenges in simulating density-driven instabilities arise from the different scales of interest involved, i.e., the scale at which instabilities are triggered and the aquifer scale over which long-term processes take place. An accurate numerical reproduction is possible, only if the finest scale is captured. For large aquifers, this leads to problems with a large number of unknowns. Advanced numerical methods are required to efficiently solve these problems with today's available computational resources. Beside efficient iterative solvers, multiscale methods are available to solve large numerical systems. Originally, multiscale methods have been developed as upscaling-downscaling techniques to resolve strong permeability contrasts. In this case, two static grids are used: one is chosen with respect to the resolution of the permeability field (fine grid); the other (coarse grid) is used to approximate the fine-scale problem at low computational costs. The quality of the multiscale solution can be iteratively improved to avoid large errors in case of complex permeability structures. Adaptive formulations, which restrict the iterative update to domains with large gradients, enable limiting the additional computational costs of the iterations. In case of density-driven instabilities, additional spatial scales appear which change with time. Flexible adaptive methods are required to account for these emerging dynamic scales. The objective of this work is to develop an adaptive multiscale formulation for the efficient and accurate simulation of density-driven instabilities. We consider the Multiscale Finite-Volume (MsFV) method, which is well suited for simulations including the solution of transport problems as it guarantees a conservative velocity field. In the first part of this thesis, we investigate the applicability of the standard MsFV method to density- driven flow problems. We demonstrate that approximations in MsFV may trigger unphysical fingers and iterative corrections are necessary. Adaptive formulations (e.g., limiting a refined solution to domains with large concentration gradients where fingers form) can be used to balance the extra costs. We also propose to use the MsFV method as downscaling technique: the coarse discretization is used in areas without significant change in the flow field whereas the problem is refined in the zones of interest. This enables accounting for the dynamic change in scales of density-driven instabilities. In the second part of the thesis the MsFV algorithm, which originally employs one coarse level, is extended to an arbitrary number of coarse levels. We prove that this keeps the MsFV method efficient for problems with a large number of unknowns. In the last part of this thesis, we focus on the scales that control the evolution of density fingers. The identification of local and global flow patterns allows a coarse description at late times while conserving fine-scale details during onset stage. Results presented in this work advance the understanding of the Multiscale Finite-Volume method and offer efficient dynamic multiscale formulations to simulate density-driven instabilities. - Les nappes phréatiques caractérisées par des structures poreuses et des fractures très perméables représentent un intérêt particulier pour les hydrogéologues et ingénieurs environnementaux. Dans ces milieux, une large variété d'écoulements peut être observée. Les plus communs sont le transport de contaminants par les eaux souterraines, le transport réactif ou l'écoulement simultané de plusieurs phases non miscibles, comme le pétrole et l'eau. L'échelle qui caractérise ces écoulements est définie par l'interaction de l'hétérogénéité géologique et des processus physiques. Un fluide au repos dans l'espace interstitiel d'un milieu poreux peut être déstabilisé par des gradients de densité. Ils peuvent être induits par des changements locaux de température ou par dissolution d'un composé chimique. Les instabilités engendrées par des gradients de densité revêtent un intérêt particulier puisque qu'elles peuvent éventuellement compromettre la qualité des eaux. Un exemple frappant est la salinisation de l'eau douce dans les nappes phréatiques par pénétration d'eau salée plus dense dans les régions profondes. Dans le cas des écoulements gouvernés par les gradients de densité, les échelles caractéristiques de l'écoulement s'étendent de l'échelle poreuse où les phénomènes de croissance des instabilités s'opèrent, jusqu'à l'échelle des aquifères sur laquelle interviennent les phénomènes à temps long. Etant donné que les investigations in-situ sont pratiquement impossibles, les modèles numériques sont utilisés pour prédire et évaluer les risques liés aux instabilités engendrées par les gradients de densité. Une description correcte de ces phénomènes repose sur la description de toutes les échelles de l'écoulement dont la gamme peut s'étendre sur huit à dix ordres de grandeur dans le cas de grands aquifères. Il en résulte des problèmes numériques de grande taille qui sont très couteux à résoudre. Des schémas numériques sophistiqués sont donc nécessaires pour effectuer des simulations précises d'instabilités hydro-dynamiques à grande échelle. Dans ce travail, nous présentons différentes méthodes numériques qui permettent de simuler efficacement et avec précision les instabilités dues aux gradients de densité. Ces nouvelles méthodes sont basées sur les volumes finis multi-échelles. L'idée est de projeter le problème original à une échelle plus grande où il est moins coûteux à résoudre puis de relever la solution grossière vers l'échelle de départ. Cette technique est particulièrement adaptée pour résoudre des problèmes où une large gamme d'échelle intervient et évolue de manière spatio-temporelle. Ceci permet de réduire les coûts de calculs en limitant la description détaillée du problème aux régions qui contiennent un front de concentration mobile. Les aboutissements sont illustrés par la simulation de phénomènes tels que l'intrusion d'eau salée ou la séquestration de dioxyde de carbone.
Resumo:
Ces dernières années, de nombreuses recherches ont mis en évidence les effets toxiques des micropolluants organiques pour les espèces de nos lacs et rivières. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, alors que les organismes sont exposés tous les jours à des milliers de substances en mélange. Or les effets de ces cocktails ne sont pas négligeables. Cette thèse de doctorat s'est ainsi intéressée aux modèles permettant de prédire le risque environnemental de ces cocktails pour le milieu aquatique. Le principal objectif a été d'évaluer le risque écologique des mélanges de substances chimiques mesurées dans le Léman, mais aussi d'apporter un regard critique sur les méthodologies utilisées afin de proposer certaines adaptations pour une meilleure estimation du risque. Dans la première partie de ce travail, le risque des mélanges de pesticides et médicaments pour le Rhône et pour le Léman a été établi en utilisant des approches envisagées notamment dans la législation européenne. Il s'agit d'approches de « screening », c'est-à-dire permettant une évaluation générale du risque des mélanges. Une telle approche permet de mettre en évidence les substances les plus problématiques, c'est-à-dire contribuant le plus à la toxicité du mélange. Dans notre cas, il s'agit essentiellement de 4 pesticides. L'étude met également en évidence que toutes les substances, même en trace infime, contribuent à l'effet du mélange. Cette constatation a des implications en terme de gestion de l'environnement. En effet, ceci implique qu'il faut réduire toutes les sources de polluants, et pas seulement les plus problématiques. Mais l'approche proposée présente également un biais important au niveau conceptuel, ce qui rend son utilisation discutable, en dehors d'un screening, et nécessiterait une adaptation au niveau des facteurs de sécurité employés. Dans une deuxième partie, l'étude s'est portée sur l'utilisation des modèles de mélanges dans le calcul de risque environnemental. En effet, les modèles de mélanges ont été développés et validés espèce par espèce, et non pour une évaluation sur l'écosystème en entier. Leur utilisation devrait donc passer par un calcul par espèce, ce qui est rarement fait dû au manque de données écotoxicologiques à disposition. Le but a été donc de comparer, avec des valeurs générées aléatoirement, le calcul de risque effectué selon une méthode rigoureuse, espèce par espèce, avec celui effectué classiquement où les modèles sont appliqués sur l'ensemble de la communauté sans tenir compte des variations inter-espèces. Les résultats sont dans la majorité des cas similaires, ce qui valide l'approche utilisée traditionnellement. En revanche, ce travail a permis de déterminer certains cas où l'application classique peut conduire à une sous- ou sur-estimation du risque. Enfin, une dernière partie de cette thèse s'est intéressée à l'influence que les cocktails de micropolluants ont pu avoir sur les communautés in situ. Pour ce faire, une approche en deux temps a été adoptée. Tout d'abord la toxicité de quatorze herbicides détectés dans le Léman a été déterminée. Sur la période étudiée, de 2004 à 2009, cette toxicité due aux herbicides a diminué, passant de 4% d'espèces affectées à moins de 1%. Ensuite, la question était de savoir si cette diminution de toxicité avait un impact sur le développement de certaines espèces au sein de la communauté des algues. Pour ce faire, l'utilisation statistique a permis d'isoler d'autres facteurs pouvant avoir une influence sur la flore, comme la température de l'eau ou la présence de phosphates, et ainsi de constater quelles espèces se sont révélées avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps. Fait intéressant, une partie d'entre-elles avait déjà montré des comportements similaires dans des études en mésocosmes. En conclusion, ce travail montre qu'il existe des modèles robustes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques, et qu'ils peuvent être utilisés pour expliquer le rôle des substances dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application. - Depuis plusieurs années, les risques que posent les micropolluants organiques pour le milieu aquatique préoccupent grandement les scientifiques ainsi que notre société. En effet, de nombreuses recherches ont mis en évidence les effets toxiques que peuvent avoir ces substances chimiques sur les espèces de nos lacs et rivières, quand elles se retrouvent exposées à des concentrations aiguës ou chroniques. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, c'est à dire considérées séparément. Actuellement, il en est de même dans les procédures de régulation européennes, concernant la partie évaluation du risque pour l'environnement d'une substance. Or, les organismes sont exposés tous les jours à des milliers de substances en mélange, et les effets de ces "cocktails" ne sont pas négligeables. L'évaluation du risque écologique que pose ces mélanges de substances doit donc être abordé par de la manière la plus appropriée et la plus fiable possible. Dans la première partie de cette thèse, nous nous sommes intéressés aux méthodes actuellement envisagées à être intégrées dans les législations européennes pour l'évaluation du risque des mélanges pour le milieu aquatique. Ces méthodes sont basées sur le modèle d'addition des concentrations, avec l'utilisation des valeurs de concentrations des substances estimées sans effet dans le milieu (PNEC), ou à partir des valeurs des concentrations d'effet (CE50) sur certaines espèces d'un niveau trophique avec la prise en compte de facteurs de sécurité. Nous avons appliqué ces méthodes à deux cas spécifiques, le lac Léman et le Rhône situés en Suisse, et discuté les résultats de ces applications. Ces premières étapes d'évaluation ont montré que le risque des mélanges pour ces cas d'étude atteint rapidement une valeur au dessus d'un seuil critique. Cette valeur atteinte est généralement due à deux ou trois substances principales. Les procédures proposées permettent donc d'identifier les substances les plus problématiques pour lesquelles des mesures de gestion, telles que la réduction de leur entrée dans le milieu aquatique, devraient être envisagées. Cependant, nous avons également constaté que le niveau de risque associé à ces mélanges de substances n'est pas négligeable, même sans tenir compte de ces substances principales. En effet, l'accumulation des substances, même en traces infimes, atteint un seuil critique, ce qui devient plus difficile en terme de gestion du risque. En outre, nous avons souligné un manque de fiabilité dans ces procédures, qui peuvent conduire à des résultats contradictoires en terme de risque. Ceci est lié à l'incompatibilité des facteurs de sécurité utilisés dans les différentes méthodes. Dans la deuxième partie de la thèse, nous avons étudié la fiabilité de méthodes plus avancées dans la prédiction de l'effet des mélanges pour les communautés évoluant dans le système aquatique. Ces méthodes reposent sur le modèle d'addition des concentrations (CA) ou d'addition des réponses (RA) appliqués sur les courbes de distribution de la sensibilité des espèces (SSD) aux substances. En effet, les modèles de mélanges ont été développés et validés pour être appliqués espèce par espèce, et non pas sur plusieurs espèces agrégées simultanément dans les courbes SSD. Nous avons ainsi proposé une procédure plus rigoureuse, pour l'évaluation du risque d'un mélange, qui serait d'appliquer d'abord les modèles CA ou RA à chaque espèce séparément, et, dans une deuxième étape, combiner les résultats afin d'établir une courbe SSD du mélange. Malheureusement, cette méthode n'est pas applicable dans la plupart des cas, car elle nécessite trop de données généralement indisponibles. Par conséquent, nous avons comparé, avec des valeurs générées aléatoirement, le calcul de risque effectué selon cette méthode plus rigoureuse, avec celle effectuée traditionnellement, afin de caractériser la robustesse de cette approche qui consiste à appliquer les modèles de mélange sur les courbes SSD. Nos résultats ont montré que l'utilisation de CA directement sur les SSDs peut conduire à une sous-estimation de la concentration du mélange affectant 5 % ou 50% des espèces, en particulier lorsque les substances présentent un grand écart- type dans leur distribution de la sensibilité des espèces. L'application du modèle RA peut quant à lui conduire à une sur- ou sous-estimations, principalement en fonction de la pente des courbes dose- réponse de chaque espèce composant les SSDs. La sous-estimation avec RA devient potentiellement importante lorsque le rapport entre la EC50 et la EC10 de la courbe dose-réponse des espèces est plus petit que 100. Toutefois, la plupart des substances, selon des cas réels, présentent des données d' écotoxicité qui font que le risque du mélange calculé par la méthode des modèles appliqués directement sur les SSDs reste cohérent et surestimerait plutôt légèrement le risque. Ces résultats valident ainsi l'approche utilisée traditionnellement. Néanmoins, il faut garder à l'esprit cette source d'erreur lorsqu'on procède à une évaluation du risque d'un mélange avec cette méthode traditionnelle, en particulier quand les SSD présentent une distribution des données en dehors des limites déterminées dans cette étude. Enfin, dans la dernière partie de cette thèse, nous avons confronté des prédictions de l'effet de mélange avec des changements biologiques observés dans l'environnement. Dans cette étude, nous avons utilisé des données venant d'un suivi à long terme d'un grand lac européen, le lac Léman, ce qui offrait la possibilité d'évaluer dans quelle mesure la prédiction de la toxicité des mélanges d'herbicide expliquait les changements dans la composition de la communauté phytoplanctonique. Ceci à côté d'autres paramètres classiques de limnologie tels que les nutriments. Pour atteindre cet objectif, nous avons déterminé la toxicité des mélanges sur plusieurs années de 14 herbicides régulièrement détectés dans le lac, en utilisant les modèles CA et RA avec les courbes de distribution de la sensibilité des espèces. Un gradient temporel de toxicité décroissant a pu être constaté de 2004 à 2009. Une analyse de redondance et de redondance partielle, a montré que ce gradient explique une partie significative de la variation de la composition de la communauté phytoplanctonique, même après avoir enlevé l'effet de toutes les autres co-variables. De plus, certaines espèces révélées pour avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps, ont montré des comportements similaires dans des études en mésocosmes. On peut en conclure que la toxicité du mélange herbicide est l'un des paramètres clés pour expliquer les changements de phytoplancton dans le lac Léman. En conclusion, il existe diverses méthodes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques et celui-ci peut jouer un rôle dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application, avant d'utiliser leurs résultats pour la gestion des risques environnementaux. - For several years now, the scientists as well as the society is concerned by the aquatic risk organic micropollutants may pose. Indeed, several researches have shown the toxic effects these substances may induce on organisms living in our lakes or rivers, especially when they are exposed to acute or chronic concentrations. However, most of the studies focused on the toxicity of single compounds, i.e. considered individually. The same also goes in the current European regulations concerning the risk assessment procedures for the environment of these substances. But aquatic organisms are typically exposed every day simultaneously to thousands of organic compounds. The toxic effects resulting of these "cocktails" cannot be neglected. The ecological risk assessment of mixtures of such compounds has therefore to be addressed by scientists in the most reliable and appropriate way. In the first part of this thesis, the procedures currently envisioned for the aquatic mixture risk assessment in European legislations are described. These methodologies are based on the mixture model of concentration addition and the use of the predicted no effect concentrations (PNEC) or effect concentrations (EC50) with assessment factors. These principal approaches were applied to two specific case studies, Lake Geneva and the River Rhône in Switzerland, including a discussion of the outcomes of such applications. These first level assessments showed that the mixture risks for these studied cases exceeded rapidly the critical value. This exceeding is generally due to two or three main substances. The proposed procedures allow therefore the identification of the most problematic substances for which management measures, such as a reduction of the entrance to the aquatic environment, should be envisioned. However, it was also showed that the risk levels associated with mixtures of compounds are not negligible, even without considering these main substances. Indeed, it is the sum of the substances that is problematic, which is more challenging in term of risk management. Moreover, a lack of reliability in the procedures was highlighted, which can lead to contradictory results in terms of risk. This result is linked to the inconsistency in the assessment factors applied in the different methods. In the second part of the thesis, the reliability of the more advanced procedures to predict the mixture effect to communities in the aquatic system were investigated. These established methodologies combine the model of concentration addition (CA) or response addition (RA) with species sensitivity distribution curves (SSD). Indeed, the mixture effect predictions were shown to be consistent only when the mixture models are applied on a single species, and not on several species simultaneously aggregated to SSDs. Hence, A more stringent procedure for mixture risk assessment is proposed, that would be to apply first the CA or RA models to each species separately and, in a second step, to combine the results to build an SSD for a mixture. Unfortunately, this methodology is not applicable in most cases, because it requires large data sets usually not available. Therefore, the differences between the two methodologies were studied with datasets created artificially to characterize the robustness of the traditional approach applying models on species sensitivity distribution. The results showed that the use of CA on SSD directly might lead to underestimations of the mixture concentration affecting 5% or 50% of species, especially when substances present a large standard deviation of the distribution from the sensitivity of the species. The application of RA can lead to over- or underestimates, depending mainly on the slope of the dose-response curves of the individual species. The potential underestimation with RA becomes important when the ratio between the EC50 and the EC10 for the dose-response curve of the species composing the SSD are smaller than 100. However, considering common real cases of ecotoxicity data for substances, the mixture risk calculated by the methodology applying mixture models directly on SSDs remains consistent and would rather slightly overestimate the risk. These results can be used as a theoretical validation of the currently applied methodology. Nevertheless, when assessing the risk of mixtures, one has to keep in mind this source of error with this classical methodology, especially when SSDs present a distribution of the data outside the range determined in this study Finally, in the last part of this thesis, we confronted the mixture effect predictions with biological changes observed in the environment. In this study, long-term monitoring of a European great lake, Lake Geneva, provides the opportunity to assess to what extent the predicted toxicity of herbicide mixtures explains the changes in the composition of the phytoplankton community next to other classical limnology parameters such as nutrients. To reach this goal, the gradient of the mixture toxicity of 14 herbicides regularly detected in the lake was calculated, using concentration addition and response addition models. A decreasing temporal gradient of toxicity was observed from 2004 to 2009. Redundancy analysis and partial redundancy analysis showed that this gradient explains a significant portion of the variation in phytoplankton community composition, even when having removed the effect of all other co-variables. Moreover, some species that were revealed to be influenced positively or negatively, by the decrease of toxicity in the lake over time, showed similar behaviors in mesocosms studies. It could be concluded that the herbicide mixture toxicity is one of the key parameters to explain phytoplankton changes in Lake Geneva. To conclude, different methods exist to predict the risk of mixture in the ecosystems. But their reliability varies depending on the underlying hypotheses. One should therefore carefully consider these hypotheses, as well as the limits of the approaches, before using the results for environmental risk management
Resumo:
La pression exercée par les activités humaines menace pratiquement tous les écosystèmes aquatiques du globe. Ainsi, sous l'effet de divers facteurs tels que la pollution, le réchauffement climatique ou encore la pêche industrielle, de nombreuses populations de poissons ont vu leurs effectifs chuter et divers changements morphologiques ont été observés. Dans cette étude, nous nous sommes intéressés à une menace particulière: la sélection induite par la pêche sur la croissance des poissons. En effet, la génétique des populations prédit que la soustraction régulière des individus les plus gros peut entraîner des modifications rapides de certains traits physiques comme la croissance individuelle. Cela a par ailleurs été observé dans de nombreuses populations marines ou lacustres, dont les populations de féras, bondelles et autres corégones des lacs suisses. Toutefois, malgré un nombre croissant d'études décrivant ce phénomène, peu de plans de gestion en tiennent compte, car l'importance des effets génétiques liés à la pêche est le plus souvent négligée par rapport à l'impact des changements environnementaux. Le but premier de cette étude a donc été de quantifier l'importance des facteurs génétiques et environnementaux. Dans le premier chapitre, nous avons étudié la population de palée du lac de Joux (Coregonus palaea). Nous avons déterminé les différentiels de sélection dus à la pêche, c'est-à-dire l'intensité de la sélection sur le taux de croissance, ainsi que les changements nets de croissance au cours du temps. Nous avons observé une baisse marquée de croissance et un différentiel de sélection important indiquant qu'au moins 30% de la diminution de croissance observée était due à la pression de sélection induite par la pêche. Dans le deuxième chapitre, nous avons effectué les mêmes analyses sur deux espèces proches du lac de Brienz (C. albellus et C. fatioi) et avons observé des effets similaires dont l'intensité était spécifique à chaque espèce. Dans le troisième chapitre, nous avons analysé deux autres espèces : C. palaea et C. confusus du lac de Bienne, et avons constaté que le lien entre la pression de sélection et la diminution de croissance était influencé par des facteurs environnementaux. Finalement, dans le dernier chapitre, nous avons étudié les effets potentiels de différentes modifications de la taille des mailles des filets utilisés pour la pêche à l'aide de modèles mathématiques. Nous concluons que la pêche a un effet génétique non négligeable (et donc peu réversible) sur la croissance individuelle dans les populations observée, que cet effet est lié à la compétition pour la nourriture et à la qualité de l'environnement, et que certaines modifications simples de la taille des mailles des filets de pêche pourraient nettement diminuer l'effet de sélection et ainsi ralentir, voir même renverser la diminution de croissance observée.
Resumo:
Résumé Suite aux recentes avancées technologiques, les archives d'images digitales ont connu une croissance qualitative et quantitative sans précédent. Malgré les énormes possibilités qu'elles offrent, ces avancées posent de nouvelles questions quant au traitement des masses de données saisies. Cette question est à la base de cette Thèse: les problèmes de traitement d'information digitale à très haute résolution spatiale et/ou spectrale y sont considérés en recourant à des approches d'apprentissage statistique, les méthodes à noyau. Cette Thèse étudie des problèmes de classification d'images, c'est à dire de catégorisation de pixels en un nombre réduit de classes refletant les propriétés spectrales et contextuelles des objets qu'elles représentent. L'accent est mis sur l'efficience des algorithmes, ainsi que sur leur simplicité, de manière à augmenter leur potentiel d'implementation pour les utilisateurs. De plus, le défi de cette Thèse est de rester proche des problèmes concrets des utilisateurs d'images satellite sans pour autant perdre de vue l'intéret des méthodes proposées pour le milieu du machine learning dont elles sont issues. En ce sens, ce travail joue la carte de la transdisciplinarité en maintenant un lien fort entre les deux sciences dans tous les développements proposés. Quatre modèles sont proposés: le premier répond au problème de la haute dimensionalité et de la redondance des données par un modèle optimisant les performances en classification en s'adaptant aux particularités de l'image. Ceci est rendu possible par un système de ranking des variables (les bandes) qui est optimisé en même temps que le modèle de base: ce faisant, seules les variables importantes pour résoudre le problème sont utilisées par le classifieur. Le manque d'information étiquétée et l'incertitude quant à sa pertinence pour le problème sont à la source des deux modèles suivants, basés respectivement sur l'apprentissage actif et les méthodes semi-supervisées: le premier permet d'améliorer la qualité d'un ensemble d'entraînement par interaction directe entre l'utilisateur et la machine, alors que le deuxième utilise les pixels non étiquetés pour améliorer la description des données disponibles et la robustesse du modèle. Enfin, le dernier modèle proposé considère la question plus théorique de la structure entre les outputs: l'intègration de cette source d'information, jusqu'à présent jamais considérée en télédétection, ouvre des nouveaux défis de recherche. Advanced kernel methods for remote sensing image classification Devis Tuia Institut de Géomatique et d'Analyse du Risque September 2009 Abstract The technical developments in recent years have brought the quantity and quality of digital information to an unprecedented level, as enormous archives of satellite images are available to the users. However, even if these advances open more and more possibilities in the use of digital imagery, they also rise several problems of storage and treatment. The latter is considered in this Thesis: the processing of very high spatial and spectral resolution images is treated with approaches based on data-driven algorithms relying on kernel methods. In particular, the problem of image classification, i.e. the categorization of the image's pixels into a reduced number of classes reflecting spectral and contextual properties, is studied through the different models presented. The accent is put on algorithmic efficiency and the simplicity of the approaches proposed, to avoid too complex models that would not be used by users. The major challenge of the Thesis is to remain close to concrete remote sensing problems, without losing the methodological interest from the machine learning viewpoint: in this sense, this work aims at building a bridge between the machine learning and remote sensing communities and all the models proposed have been developed keeping in mind the need for such a synergy. Four models are proposed: first, an adaptive model learning the relevant image features has been proposed to solve the problem of high dimensionality and collinearity of the image features. This model provides automatically an accurate classifier and a ranking of the relevance of the single features. The scarcity and unreliability of labeled. information were the common root of the second and third models proposed: when confronted to such problems, the user can either construct the labeled set iteratively by direct interaction with the machine or use the unlabeled data to increase robustness and quality of the description of data. Both solutions have been explored resulting into two methodological contributions, based respectively on active learning and semisupervised learning. Finally, the more theoretical issue of structured outputs has been considered in the last model, which, by integrating outputs similarity into a model, opens new challenges and opportunities for remote sensing image processing.
Resumo:
Due to the existence of free software and pedagogical guides, the use of data envelopment analysis (DEA) has been further democratized in recent years. Nowadays, it is quite usual for practitioners and decision makers with no or little knowledge in operational research to run themselves their own efficiency analysis. Within DEA, several alternative models allow for an environment adjustment. Five alternative models, each of them easily accessible to and achievable by practitioners and decision makers, are performed using the empirical case of the 90 primary schools of the State of Geneva, Switzerland. As the State of Geneva practices an upstream positive discrimination policy towards schools, this empirical case is particularly appropriate for an environment adjustment. The alternative of the majority of DEA models deliver divergent results. It is a matter of concern for applied researchers and a matter of confusion for practitioners and decision makers. From a political standpoint, these diverging results could lead to potentially opposite decisions. Grâce à l'existence de logiciels en libre accès et de guides pédagogiques, la méthode data envelopment analysis (DEA) s'est démocratisée ces dernières années. Aujourd'hui, il n'est pas rare que les décideurs avec peu ou pas de connaissances en recherche opérationnelle réalisent eux-mêmes leur propre analyse d'efficience. A l'intérieur de la méthode DEA, plusieurs modèles permettent de tenir compte des conditions plus ou moins favorables de l'environnement. Cinq de ces modèles, facilement accessibles et applicables par les décideurs, sont utilisés pour mesurer l'efficience des 90 écoles primaires du canton de Genève, Suisse. Le canton de Genève pratiquant une politique de discrimination positive envers les écoles défavorisées, ce cas pratique est particulièrement adapté pour un ajustement à l'environnement. La majorité des modèles DEA génèrent des résultats divergents. Ce constat est préoccupant pour les chercheurs appliqués et perturbant pour les décideurs. D'un point de vue politique, ces résultats divergents conduisent à des prises de décision différentes selon le modèle sur lequel elles sont fondées.
Resumo:
Introduction : La prévalence des maladies stéatosiques non alcooliques du foie augmente de manière exponentielle dans les pays industrialisés. Le développement de ces maladies se traduit par une stéatose hépatique fréquemment associée à une résistance à l'insuline. Cette résistance a pu être expliquée par l'accumulation intra-hépatocytaire de lipides intermédiaires tels que Céramides et Diacylglycérols. Cependant, notre modèle animal de stéatose hépatique, les souris invalidées pour la protéine hépatique « Microsomal Triglyceride Transfert Protein » (Mttp Δ / Δ), ne développent pas de résistance à l'insuline, malgré une augmentation de ces lipides intermédiaires. Ceci suggère la présence d'un autre mécanisme induisant la résistance à l'insuline. Matériels et méthodes : L'analyse Microarray du foie des souris Mttp Δ / Δ a montré une forte up-régulation des gènes « Cell-death Inducing DFFA-like Effector C (cidec) », « Lipid Storage Droplet Protein 5 (lsdp5) » et « Bernardinelli-Seip Congenital Lipodystrophy 2 Homolog (seipin) » dans le foie des souris Mttp Δ / Δ. Ces gènes ont été récemment identifiés comme codant pour des protéines structurelles des gouttelettes lipidiques. Nous avons testé si ces gènes jouaient un rôle important dans le développement de la stéatose hépatique, ainsi que de la résistance à l'insuline. Résultats : Nous avons démontré que ces gènes sont fortement augmentés dans d'autres modèles de souris stéatosées tels que ceux présentant une sur-expression de ChREBP. Dans les hépatocytes murins (AML12 :Alfa Mouse Liver 12), l'invalidation de cidec et/ou seipin semble diminuer la phosphorylation d'AKT après stimulation à l'insuline, suggérant une résistance à l'insuline. Chez l'homme, l'expression de ces gènes est augmentée dans le foie de patients obèses avec stéatose hépatique. De manière intéressante, cette augmentation est atténuée chez les patients avec résistance à l'insuline. Conclusion : Ces données suggèrent que ces protéines des gouttelettes lipidiques augmentent au cours du développement de la stéatose hépatique et que cette augmentation protège contre la résistance à l'insuline.
Resumo:
RESUME DE LA THESE Le but de cette thèse est d'analyser la réforme générale de l'Etat au Cameroun et au Gabon par les institutions de Bretton Woods sur une période de vingt ans (1987-2007). Pour ce faire, mon travail consiste à étudier le rôle majeur joué par les différentes mesures économiques impulsées dans les pays par le Fonds Monétaire International (FMI) et la Banque Mondiale. Il s'agit de voir si les différentes réformes d'ajustement que ces institutions ont imposé au Cameroun et au Gabon ont produit des effets positifs en vue de solution la crise économique qui s'y installait durablement et remettre ces Etats sur le sentier de la croissance et du développement. L'avènement de la crise économique qui sévissait dans les pays au milieu des années 1980 montrait que le modèle développementaliste expérimenté par ces Etats n'avait expérimenté contribué qu'à provoquer la paralysie de l'appareil de production. Les causes profondes résidaient dans l'omniprésence de l'Etat qui privilégiait une logique administrative au dépend de celle de production au point de nuire gravement aux politiques interventionnistes étatiques. A cela, s'ajoutaient d'autres facteurs endogènes et exogènes aux Etats comme la mauvaise gestion couplée à la forte corruption et au clientélisme politique, la contrebande et le dumping, l'effritement du secteur agricole dû au vieillissement des plantations et à la sous-mécanisation, l'explosion démographique, la détérioration des termes de l'échange, le chômage endémique et galopant, etc. En ayant recours aux réformes d'ajustement structurel du FMI et de la Banque Mondiale, les gouvernements camerounais et gabonais entendaient lutter contre les rigidités institutionnelles et les distorsions structurelles qui empêchaient leurs économies de répondre aux signaux du marché et d'accroître l'offre d'une part. Et, d'autre part, les réformes d'ajustement devaient permettre de renforcer la concurrence des produits sur les marchés, accroître les capacités d'adaptation des marchés de facteurs et améliorer l'efficacité et l'efficience du secteur public. Mais avant d'analyser les réformes d'ajustement dans les pays j'ai d'abord présenté dans une première partie, l'évolution sociopolitique et économique des deux pays. Cette partie donne à l'analyse une profondeur historique indispensable et rend compte de l'évolution des politiques sectorielles des Etats marquée par une phase de croissance (1960-1984), puis par une phase de décroissance ou de crise qui commence à partir de 1985. La seconde partie met en évidence les politiques d'ajustement structurelle principalement axées sur la régulation monétaire, financière et budgétaire, la réforme de la fonction publique, la réforme agricole, le désengagement de l'Etat du secteur productif national et les privatisations. Je termine cette seconde partie par un bilan contrasté que je dresse de l'impact de ces réformes dans les économies camerounaises et gabonaises. La troisième partie met en évidence les nouvelles orientations stratégiques des institutions de Bretton Woods en partant de l'agenda politique des réformes au Cameroun et au Gabon. Elle fait intervenir une batterie de réformes portant sur l'initiative Pays Pauvres Très Endettés (PPTE), les Documents de Stratégie pour la Réduction de la Pauvreté (DSRP), l'Evaluation Politique et Institutionnelle du Pays (EPIP) et la «Bonne Gouvernance». Cette thèse s'achève par une conclusion exhaustive mettant en évidence les insuffisances des modèles théoriques et conceptuels fondant l'ajustement structurel et la remise en cause des nouvelles stratégies de lutte contre la pauvreté impulsées par le FMI et la Banque Mondiale dans les pays d'une part. D'autre part, j'observe une faiblesse institutionnelle de l'Etat dans ces pays qui se résume à la mauvaise gouvernance ; à l'absence d'un cadre et des outils appropriés pour la gestion économique et stratégique du développement à long terme ; à l'impunité généralisée et à l'inefficacité des mesures de lutte contre la pauvreté ; à l'absence d'un Etat de droit et à l'autoritarisme des régimes en place.
Resumo:
Il est maintenant accepté par une large part de la communauté scientifique que le climat est en train de changer sous l'influence des gaz à effet de serre émis par les activités humaines. Pour la Suisse, cela correspond à une augmentation des températures et à une diminution probable des précipitations estivales.Etant donné le manque de recul et de données historiques précises, l'influence des changements climatiques sur la biodiversité n'est encore connue que d'études ponctuelles limitées à certaines espèces. Celles-ci nous livrent néanmoins des signaux clairs de changement dans la distribution et la phénologie des espèces, généralement cohérents avec les résultats des modèles prédictifs pour le futur.Globalement, les espèces montrent une tendance à migrer vers les altitudes supérieures. Celles qui occupent aujourd'hui les altitudes les plus élevées vont probablement voir leur domaine se rétrécir. De grands risques d'extinction planent donc sur les espèces alpines, pour lesquelles la Suisse a une responsabilité toute particulière. Parallèlement, la diminution des précipitations estivales va augmenter les problèmes de sécheresses, ce qui pourrait conduire, par exemple, à une réduction des forêts en Valais central et à un assèchement prématuré des lieux de ponte des amphibiens. Inversement, certaines espèces thermophiles de basses altitudes pourraient profiter des nouvelles conditions en accroissant leur domaine de répartition, comme déjà observé chez certains insectes.En plus des changements climatiques, d'autres facteurs menacent indirectement les espèces. La forte fragmentation du territoire limitera la capacité des espèces à coloniser de nouveaux territoires par manque de connexions entre les milieux favorables. Un climat plus chaud permettra une intensification de l'agriculture en montagne, accompagnée des effets néfastes déjà bien connus en plaine, ou pourrait favoriser certaines maladies. De plus, les printemps plus précoces décaleront le développement de certaines espèces, ce qui pourrait fortement modifier les interactions entre espèces et les chaînes trophiques.Les conséquences des changements climatiques sur la biodiversité dépendront aussi des décisions prises au niveau national et international et des mesures prises pour la protection du climat. Afin de limiter les pertes, il est important de mettre en place des corridors favorisant la colonisation de nouvelles aires par les espèces et d'utiliser les synergies possibles entre protection de la biodiversité et lutte contre les changements climatiques. De plus, le monitoring des espèces les plus sensibles aidera à développer, avant qu'il ne soit trop tard, les mesures complémentaires nécessaires à leur conservation.