1000 resultados para conception du réseau en fonction du temps
Resumo:
SUMMARY IN FRENCH Les cellules souches sont des cellules indifférenciées capables a) de proliférer, b) de s'auto¬renouveller, c) de produire des cellules différenciées, postmitotiques et fonctionnelles (multipotencialité), et d) de régénérer le tissu après des lésions. Par exemple, les cellules de souches hematopoiétiques, situées dans la moelle osseuse, peuvent s'amplifier, se diviser et produire diverses cellules différenciées au cours de la vie, les cellules souches restant dans la moelle osseuse et consentant leur propriété. Les cellules souches intestinales, situées dans la crypte des microvillosités peuvent également régénérer tout l'intestin au cours de la vie. La rétine se compose de six classes de neurones et d'un type de cellule gliale. Tous ces types de cellules sont produits par un progéniteur rétinien. Le pic de production des photorécepteurs se situe autour des premiers jours postnatals chez la souris. A cette période la rétine contient les cellules hautement prolifératives. Dans cette étude, nous avons voulu analyser le phénotype de ces cellules et leur potentiel en tant que cellules souches ou progénitrices. Nous nous sommes également concentrés sur l'effet de certains facteurs épigéniques sur leur destin cellulaire. Nous avons observé que toutes les cellules prolifératives isolées à partir de neurorétines postnatales de souris expriment le marqueur de glie radiaire RC2, ainsi que des facteurs de transcription habituellement trouvés dans la glie radiaire (Mash1, Pax6), et répondent aux critères des cellules souches : une capacité élevée d'expansion, un état indifférencié, la multipotencialité (démontrée par analyse clonale). Nous avons étudié la différentiation des cellules dans différents milieux de culture. En l'absence de sérum, l'EGF induit l'expression de la β-tubulin-III, un marqueur neuronal, et l'acquisition d'une morphologie neuronale, ceci dans 15% des cellules présentes. Nous avons également analysé la prolifération de cellules. Seulement 20% des cellules incorporent le bromodéoxyuridine (BrdU) qui est un marqueur de division cellulaire. Ceci démontre que l'EGF induit la formation des neurones sans une progression massive du cycle cellulaire. Par ailleurs, une stimulation de 2h d'EGF est suffisante pour induire la différentiation neuronale. Certains des neurones formés sont des cellules ganglionnaires rétiniennes (GR), comme l'indique l'expression de marqueurs de cellules ganglionnaires (Ath5, Brn3b et mélanopsine), et dans de rare cas d'autres neurones rétiniens ont été observés (photorécepteurs (PR) et cellules bipolaires). Nous avons confirmé que les cellules souches rétiniennes tardives n'étaient pas restreintes au cours du temps et qu'elles conservent leur multipotencialité en étant capables de générer des neurones dits précoces (GR) ou tardifs (PR). Nos résultats prouvent que l'EGF est non seulement un facteur contrôlant le développement glial, comme précédemment démontré, mais également un facteur efficace de différentiation pour les neurones rétiniens, du moins in vitro. D'autre part, nous avons voulu établir si l'oeil adulte humain contient des cellules souches rétiniennes (CSRs). L'oeil de certains poissons ou amphibiens continue de croître pendant l'âge adulte du fait de l'activité persistante des cellules souches rétiniennes. Chez les poissons, le CSRs se situe dans la marge ciliaire (CM) à la périphérie de la rétine. Bien que l'oeil des mammifères ne se développe plus pendant la vie d'adulte, plusieurs groupes ont prouvé que l'oeil de mammifères adultes contient des cellules souches rétiniennes également dans la marge ciliaire plus précisément dans l'épithélium pigmenté et non dans la neurorétine. Ces CSRs répondent à certains critères des cellules souches. Nous avons identifié et caractérisé les cellules souches rétiniennes résidant dans l'oeil adulte humain. Nous avons prouvé qu'elles partagent les mêmes propriétés que leurs homologues chez les rongeurs c.-à-d. auto-renouvellement, amplification, et différenciation en neurones rétiniens in vitro et in vivo (démontré par immunocoloration et microarray). D'autre part, ces cellules peuvent être considérablement amplifiées, tout en conservant leur potentiel de cellules souches, comme indiqué par l'analyse de leur profil d'expression génique (microarray). Elles expriment également des gènes communs à diverses cellules souches: nucleostemin, nestin, Brni1, Notch2, ABCG2, c-kit et son ligand, aussi bien que cyclin D3 qui agit en aval de c-kit. Nous avons pu montré que Bmi1et Oct4 sont nécessaires pour la prolifération des CSRs confortant leur propriété de cellules souches. Nos données indiquent que la neurorétine postnatale chez la souris et l'épithélium pigmenté de la marge ciliaire chez l'humain adulte contiennent les cellules souches rétiniennes. En outre, nous avons développé un système qui permet d'amplifier et de cultiver facilement les CSRs. Ce modèle permet de disséquer les mécanismes impliqués lors de la retinogenèse. Par exemple, ce système peut être employé pour l'étude des substances ou des facteurs impliqués, par exemple, dans la survie ou dans la génération des cellules rétiniennes. Il peut également aider à disséquer la fonction de gènes ou les facteurs impliqués dans la restriction ou la spécification du destin cellulaire. En outre, dans les pays occidentaux, la rétinite pigmentaire (RP) touche 1 individu sur 3500 et la dégénérescence maculaire liée à l'âge (DMLA) affecte 1 % à 3% de la population âgée de plus de 60 ans. La génération in vitro de cellules rétiniennes est aussi un outil prometteur pour fournir une source illimitée de cellules pour l'étude de transplantation cellulaire pour la rétine. SUMMARY IN ENGLISH Stem cells are defined as undifferentiated cells capable of a) proliferation, b) self maintenance (self-renewability), c) production of many differentiated functional postmitotic cells (multipotency), and d) regenerating tissue after injury. For instance, hematopoietic stem cells, located in bone marrow, can expand, divide and generate differentiated cells into the diverse lineages throughout life, the stem cells conserving their status. In the villi crypt, the intestinal stem cells are also able to regenerate the intestine during their life time. The retina is composed of six classes of neurons and one glial cell. All these cell types are produced by the retinal progenitor cell. The peak of photoreceptor production is reached around the first postnatal days in rodents. Thus, at this stage the retina contains highly proliferative cells. In our research, we analyzed the phenotype of these cells and their potential as possible progenitor or stem cells. We also focused on the effect of epigenic factor(s) and cell fate determination. All the proliferating cells isolated from mice postnatal neuroretina harbored the radial glia marker RC2, expressed transcription factors usually found in radial glia (Mash 1, Pax6), and met the criteria of stem cells: high capacity of expansion, maintenance of an undifferentiated state, and multipotency demonstrated by clonal analysis. We analyzed the differentiation seven days after the transfer of the cells in different culture media. In the absence of serum, EGF led to the expression of the neuronal marker β-tubulin-III, and the acquisition of neuronal morphology in 15% of the cells. Analysis of cell proliferation by bromodeoxyuridine incorporation revealed that EGF mainly induced the formation of neurons without stimulating massively cell cycle progression. Moreover, a pulse of 2h EGF stimulation was sufficient to induce neuronal differentiation. Some neurons were committed to the retinal ganglion cell (RGC) phenotype, as revealed by the expression of retinal ganglion markers (Ath5, Brn3b and melanopsin), and in few cases to other retinal phenotypes (photoreceptors (PRs) and bipolar cells). We confirmed that the late RSCs were not restricted over-time and conserved multipotentcy characteristics by generating retinal phenotypes that usually appear at early (RGC) or late (PRs) developmental stages. Our results show that EGF is not only a factor controlling glial development, as previously shown, but also a potent differentiation factor for retinal neurons, at least in vitro. On the other hand, we wanted to find out if the adult human eye contains retina stem cells. The eye of some fishes and amphibians continues to grow during adulthood due to the persistent activity of retinal stem cells (RSCs). In fish, the RSCs are located in the ciliary margin zone (CMZ) at the periphery of the retina. Although, the adult mammalian eye does not grow during adult life, several groups have shown that the adult mouse eye contains retinal stem cells in the homologous zone (i.e. the ciliary margin), in the pigmented epithelium and not in the neuroretina. These RSCs meet some criteria of stem cells. We identified and characterized the human retinal stem cells. We showed that they posses the same features as their rodent counterpart i.e. they self-renew, expand and differentiate into retinal neurons in vitro and in vivo (indicated by immunostaining and microarray analysis). Moreover, they can be greatly expanded while conserving their sternness potential as revealed by the gene expression profile analysis (microarray approach). They also expressed genes common to various stem cells: nucleostemin, nestin, Bmil , Notch2, ABCG2, c-kit and its ligand, as well as cyclin D3 which acts downstream of c-kit. Furthermore, Bmil and Oct-4 were required for RSC proliferation reinforcing their stem cell identity. Our data indicate that the mice postnatal neuroretina and the adult pigmented epithelium of adult human ciliary margin contain retinal stem cells. We developed a system to easily expand and culture RSCs that can be used to investigate the retinogenesis. For example, it can help to screen drugs or factors involved, for instance, in the survival or generation of retinal cells. This could help to dissect genes or factors involved in the restriction or specification of retinal cell fate. In Western countries, retinitis pigmentosa (RP) affects 1 out of 3'500 individuals and age-related macula degeneration (AMD) strikes 1 % to 3% of the population over 60. In vitro generation of retinal cells is thus a promising tool to provide an unlimited cell source for cellular transplantation studies in the retina.
Resumo:
Cette thèse de doctorat porte sur la pensée de Valentin Volochinov (1895-1936) et le contexte intellectuel russe du début du XXe siècle dans lequel elle a été élaborée. Le cadre spatial de l'étude est la Russie. Le cadre temporel correspond aux années 1890-1920. Fait dans le cadre des « études bakhtiniennes », ce travail propose une démarche inverse de celle utilisée jusqu'à présent dans ce domaine. Son objectif est d'explorer les conséquences pratiques de trois hypothèses : 1) Valentin Volochinov (et non pas Mikhaïl Bakhtine) est l'auteur des textes parus sous son nom dans les années 1920 ; 2) Valentin Volochinov est un chercheur indépendant de Mikhaïl Bakhtine et de Pavel Medvedev (et non pas seulement un des membres du « Cercle de Bakhtine » ou du « groupe B.M.V. » dont le projet scientifique serait incompréhensible sans le recours aux textes bakhtiniens et/ou de Medvedev) ; 3) la connaissance du contexte intellectuel général dans lequel a travaillé Valentin Volochinov (c'est-à-dire l'ensemble des textes et des discussions scientifiques qui se sont déroulées dans les revues et les institutions scientifiques autour des thèmes abordés dans les textes signés dans les années 1920 par Volochinov) joue un rôle de premier plan dans l'interprétation de sa conception. L'analyse de la terminologie utilisée dans les travaux de Volochinov (en particulier de la notion d'« idéologie » et de méthode « marxiste »), ainsi que l'examen des idées ayant trait à la philosophie du langage (la réception des idées de Saussure, la polémique avec Rozalija Chor sur des principes de la science du langage « marxiste », la critique de la conception du «mot» de Gustav Chpet), psychologiques (la critique de la théorie psychanalytique de Sigmund Freud, l'élaboration de la notion de conscience, la recherche des bases de la psychologie « marxiste ») et sociologiques (l'analyse de l'interaction socio-verbale et l'élaboration de la théorie de l'énoncé) amènent à la conclusion que les hypothèses avancées sont justes et le mode de lecture adopté dans le travail est rentable : il suscite des interprétations différentes de celles proposées jusqu'à présent. Il permet, par exemple, de mettre en évidence les particularités du marxisme russe des années 1920 considéré par les intellectuels de l'époque, d'une part, comme une méthode des recherches dont les principes fondamentaux sont le matérialisme, le monisme, le déterminisme (y compris social), la dialectique et, d'autre part, comme une doctrine sociologique. Compris en ce sens, le marxisme fait partie de l'histoire de la sociologie russe qui comprend également des conceptions dites « bourgeoises » ou « positivistes » comme, par exemple, celle d'Eugène de Roberty, qui insiste dans ses travaux sur le primat du social sur l'individuel, autrement dit qui met en avant le principe du déterminisme social souvent associé uniquement au «sociologisme marxisant». L'oeuvre de Volochinov ne contient pas, par conséquent, d'éléments de «sociologisme vulgaire», elle s'inscrit dans l'histoire des idées sociologiques russes où il n'y a pas de rupture nette entre les conceptions dites «bourgeoises» et marxistes. Le marxisme de Volochinov n'est pas révolutionnaire. Il ne peut pas non plus être associé aux idées psychanalytiques. La preuve est le refus radical de l'existence de l'inconscient (ou plutôt d'une force inconsciente) qui déterminerait le comportement des individus sans qu'ils s'en rendent compte. Le projet scientifique de Volochinov consiste à analyser la conscience (les faits psychiques), ainsi que le langage, l'énoncé et les structures syntaxiques dans lesquelles l'énoncé se réalise en tant qu'éléments constitutifs de l'échange social et/ou verbal, qui se trouve au centre de vives discussions menées à la charnière des XIXe-XXe siècles par les chercheurs russes d'orientation marxiste et non marxiste. Pour comprendre ce projet il n'est pas nécessaire de faire appel aux idées de Bakhtine et de Medvedev : la lecture en contexte des textes signés dans les années 1920 par Volochinov met ainsi en doute l'idée qui domine actuellement dans le monde francophone que Bakhtine serait leur véritable auteur.
Resumo:
Résumé - De la dyschronie chez les enfants instables, hypothèse d'une difficulté d'instauration d'un temps transitionnel. Du syndrome d'asynergie motrice et mentale de Wallon (1925) au déficit d'inhibition du comportement de Barkley (1997), l'agitation de l'enfant a souvent été liée à une difficulté à penser, organiser et partager les représentations inhérentes à la temporalité. La dyschronie, telle que formulée par Gibello (1976), constitue une théorie heuristique pour penser ce défaut de symbolisation du temps. Pour mieux comprendre ces phénomènes, plusieurs épreuves projectives (Rorschach, TAT, dessins) ont été proposées à un jeune garçon instable dyschronique. Les analyses mettent en évidence une discontinuité des capacités représentatives. Si une différence entre un protocole Rorschach qui s'est révélé restreint et un TAT abondant en constitue le premier signe, des indices spécifiques montrent une difficulté d'instauration d'une aire de jeu imaginaire stable ou plus précisément un manque de continuité dans les phénomènes transitionnels (Winnicott, 1975). Peut-on dès lors envisager un lien entre la difficulté de représentation des transformations (Gibello, 2004) et ce déficit d'instauration, non plus seulement d'un espace, mais aussi d'un temps où se représentent les transitions ?
Resumo:
L'utilisation efficace des systèmes géothermaux, la séquestration du CO2 pour limiter le changement climatique et la prévention de l'intrusion d'eau salée dans les aquifères costaux ne sont que quelques exemples qui démontrent notre besoin en technologies nouvelles pour suivre l'évolution des processus souterrains à partir de la surface. Un défi majeur est d'assurer la caractérisation et l'optimisation des performances de ces technologies à différentes échelles spatiales et temporelles. Les méthodes électromagnétiques (EM) d'ondes planes sont sensibles à la conductivité électrique du sous-sol et, par conséquent, à la conductivité électrique des fluides saturant la roche, à la présence de fractures connectées, à la température et aux matériaux géologiques. Ces méthodes sont régies par des équations valides sur de larges gammes de fréquences, permettant détudier de manières analogues des processus allant de quelques mètres sous la surface jusqu'à plusieurs kilomètres de profondeur. Néanmoins, ces méthodes sont soumises à une perte de résolution avec la profondeur à cause des propriétés diffusives du champ électromagnétique. Pour cette raison, l'estimation des modèles du sous-sol par ces méthodes doit prendre en compte des informations a priori afin de contraindre les modèles autant que possible et de permettre la quantification des incertitudes de ces modèles de façon appropriée. Dans la présente thèse, je développe des approches permettant la caractérisation statique et dynamique du sous-sol à l'aide d'ondes EM planes. Dans une première partie, je présente une approche déterministe permettant de réaliser des inversions répétées dans le temps (time-lapse) de données d'ondes EM planes en deux dimensions. Cette stratégie est basée sur l'incorporation dans l'algorithme d'informations a priori en fonction des changements du modèle de conductivité électrique attendus. Ceci est réalisé en intégrant une régularisation stochastique et des contraintes flexibles par rapport à la gamme des changements attendus en utilisant les multiplicateurs de Lagrange. J'utilise des normes différentes de la norme l2 pour contraindre la structure du modèle et obtenir des transitions abruptes entre les régions du model qui subissent des changements dans le temps et celles qui n'en subissent pas. Aussi, j'incorpore une stratégie afin d'éliminer les erreurs systématiques de données time-lapse. Ce travail a mis en évidence l'amélioration de la caractérisation des changements temporels par rapport aux approches classiques qui réalisent des inversions indépendantes à chaque pas de temps et comparent les modèles. Dans la seconde partie de cette thèse, j'adopte un formalisme bayésien et je teste la possibilité de quantifier les incertitudes sur les paramètres du modèle dans l'inversion d'ondes EM planes. Pour ce faire, je présente une stratégie d'inversion probabiliste basée sur des pixels à deux dimensions pour des inversions de données d'ondes EM planes et de tomographies de résistivité électrique (ERT) séparées et jointes. Je compare les incertitudes des paramètres du modèle en considérant différents types d'information a priori sur la structure du modèle et différentes fonctions de vraisemblance pour décrire les erreurs sur les données. Les résultats indiquent que la régularisation du modèle est nécessaire lorsqu'on a à faire à un large nombre de paramètres car cela permet d'accélérer la convergence des chaînes et d'obtenir des modèles plus réalistes. Cependent, ces contraintes mènent à des incertitudes d'estimations plus faibles, ce qui implique des distributions a posteriori qui ne contiennent pas le vrai modèledans les régions ou` la méthode présente une sensibilité limitée. Cette situation peut être améliorée en combinant des méthodes d'ondes EM planes avec d'autres méthodes complémentaires telles que l'ERT. De plus, je montre que le poids de régularisation des paramètres et l'écart-type des erreurs sur les données peuvent être retrouvés par une inversion probabiliste. Finalement, j'évalue la possibilité de caractériser une distribution tridimensionnelle d'un panache de traceur salin injecté dans le sous-sol en réalisant une inversion probabiliste time-lapse tridimensionnelle d'ondes EM planes. Etant donné que les inversions probabilistes sont très coûteuses en temps de calcul lorsque l'espace des paramètres présente une grande dimension, je propose une stratégie de réduction du modèle ou` les coefficients de décomposition des moments de Legendre du panache de traceur injecté ainsi que sa position sont estimés. Pour ce faire, un modèle de résistivité de base est nécessaire. Il peut être obtenu avant l'expérience time-lapse. Un test synthétique montre que la méthodologie marche bien quand le modèle de résistivité de base est caractérisé correctement. Cette méthodologie est aussi appliquée à un test de trac¸age par injection d'une solution saline et d'acides réalisé dans un système géothermal en Australie, puis comparée à une inversion time-lapse tridimensionnelle réalisée selon une approche déterministe. L'inversion probabiliste permet de mieux contraindre le panache du traceur salin gr^ace à la grande quantité d'informations a priori incluse dans l'algorithme. Néanmoins, les changements de conductivités nécessaires pour expliquer les changements observés dans les données sont plus grands que ce qu'expliquent notre connaissance actuelle des phénomenès physiques. Ce problème peut être lié à la qualité limitée du modèle de résistivité de base utilisé, indiquant ainsi que des efforts plus grands devront être fournis dans le futur pour obtenir des modèles de base de bonne qualité avant de réaliser des expériences dynamiques. Les études décrites dans cette thèse montrent que les méthodes d'ondes EM planes sont très utiles pour caractériser et suivre les variations temporelles du sous-sol sur de larges échelles. Les présentes approches améliorent l'évaluation des modèles obtenus, autant en termes d'incorporation d'informations a priori, qu'en termes de quantification d'incertitudes a posteriori. De plus, les stratégies développées peuvent être appliquées à d'autres méthodes géophysiques, et offrent une grande flexibilité pour l'incorporation d'informations additionnelles lorsqu'elles sont disponibles. -- The efficient use of geothermal systems, the sequestration of CO2 to mitigate climate change, and the prevention of seawater intrusion in coastal aquifers are only some examples that demonstrate the need for novel technologies to monitor subsurface processes from the surface. A main challenge is to assure optimal performance of such technologies at different temporal and spatial scales. Plane-wave electromagnetic (EM) methods are sensitive to subsurface electrical conductivity and consequently to fluid conductivity, fracture connectivity, temperature, and rock mineralogy. These methods have governing equations that are the same over a large range of frequencies, thus allowing to study in an analogous manner processes on scales ranging from few meters close to the surface down to several hundreds of kilometers depth. Unfortunately, they suffer from a significant resolution loss with depth due to the diffusive nature of the electromagnetic fields. Therefore, estimations of subsurface models that use these methods should incorporate a priori information to better constrain the models, and provide appropriate measures of model uncertainty. During my thesis, I have developed approaches to improve the static and dynamic characterization of the subsurface with plane-wave EM methods. In the first part of this thesis, I present a two-dimensional deterministic approach to perform time-lapse inversion of plane-wave EM data. The strategy is based on the incorporation of prior information into the inversion algorithm regarding the expected temporal changes in electrical conductivity. This is done by incorporating a flexible stochastic regularization and constraints regarding the expected ranges of the changes by using Lagrange multipliers. I use non-l2 norms to penalize the model update in order to obtain sharp transitions between regions that experience temporal changes and regions that do not. I also incorporate a time-lapse differencing strategy to remove systematic errors in the time-lapse inversion. This work presents improvements in the characterization of temporal changes with respect to the classical approach of performing separate inversions and computing differences between the models. In the second part of this thesis, I adopt a Bayesian framework and use Markov chain Monte Carlo (MCMC) simulations to quantify model parameter uncertainty in plane-wave EM inversion. For this purpose, I present a two-dimensional pixel-based probabilistic inversion strategy for separate and joint inversions of plane-wave EM and electrical resistivity tomography (ERT) data. I compare the uncertainties of the model parameters when considering different types of prior information on the model structure and different likelihood functions to describe the data errors. The results indicate that model regularization is necessary when dealing with a large number of model parameters because it helps to accelerate the convergence of the chains and leads to more realistic models. These constraints also lead to smaller uncertainty estimates, which imply posterior distributions that do not include the true underlying model in regions where the method has limited sensitivity. This situation can be improved by combining planewave EM methods with complimentary geophysical methods such as ERT. In addition, I show that an appropriate regularization weight and the standard deviation of the data errors can be retrieved by the MCMC inversion. Finally, I evaluate the possibility of characterizing the three-dimensional distribution of an injected water plume by performing three-dimensional time-lapse MCMC inversion of planewave EM data. Since MCMC inversion involves a significant computational burden in high parameter dimensions, I propose a model reduction strategy where the coefficients of a Legendre moment decomposition of the injected water plume and its location are estimated. For this purpose, a base resistivity model is needed which is obtained prior to the time-lapse experiment. A synthetic test shows that the methodology works well when the base resistivity model is correctly characterized. The methodology is also applied to an injection experiment performed in a geothermal system in Australia, and compared to a three-dimensional time-lapse inversion performed within a deterministic framework. The MCMC inversion better constrains the water plumes due to the larger amount of prior information that is included in the algorithm. The conductivity changes needed to explain the time-lapse data are much larger than what is physically possible based on present day understandings. This issue may be related to the base resistivity model used, therefore indicating that more efforts should be given to obtain high-quality base models prior to dynamic experiments. The studies described herein give clear evidence that plane-wave EM methods are useful to characterize and monitor the subsurface at a wide range of scales. The presented approaches contribute to an improved appraisal of the obtained models, both in terms of the incorporation of prior information in the algorithms and the posterior uncertainty quantification. In addition, the developed strategies can be applied to other geophysical methods, and offer great flexibility to incorporate additional information when available.
Resumo:
Erythrocyte concentrates (ECs) are the major labile blood product being transfused worldwide, aiming at curing anemia of diverse origins. In Switzerland, ECs are stored at 4 °C up to 42 days in saline-adenine-glucose-mannitol (SAGM). Such storage induces cellular lesions, altering red blood cells (RBCs) metabolism, protein content and rheological properties. A hot debate exists regarding the impact of the storage lesions, thus the age of ECs on transfusion-related clinical adverse outcomes. Several studies tend to show that poorer outcomes occur in patients receiving older blood products. However, no clear association was demonstrated up to date. While metabolism and early rheological changes are reversible through transfusion of the blood units, oxidized proteins cannot be repaired, and it is likely such irreversible damages would affect the quality of the blood product and the efficiency of the transfusion. In vivo, RBCs are constantly exposed to oxygen fluxes, and are thus well equipped to deal with oxidative challenges. Moreover, functional 20S proteasome complexes allow for recognition and proteolysis of fairly oxidized protein, and some proteins can be eliminated from RBCs by the release of microvesicles. The present PhD thesis is involved in a global research project which goal is to characterize the effect of processing and storage on the quality of ECs. Assessing protein oxidative damages during RBC storage is of major importance to understand the mechanisms of aging of stored RBCs. To this purpose, redox proteomic-based investigations were conducted here. In a first part, cysteine oxidation and protein carbonylation were addressed via 2D-DIGE and derivatization-driven immunodetection approaches, respectively. Then, the oxidized sub- proteomes were characterized through LC-MS/MS identification of proteins in spots of interest (cysteine oxidation) or affinity-purified carbonylated proteins. Gene ontology annotation allowed classifying targets of oxidation according to their molecular functions. In a third part, the P20S activity was evaluated throughout the storage period of ECs, and its susceptibility to highly oxidized environment was investigated. The potential defensive role of microvesiculation was also addressed through the quantification of eliminated carbonylated proteins. We highlighted distinct protein groups differentially affected by cysteine oxidation, either reversibly or irreversibly. In addition, soluble extracts showed a decrease in carbonylation at the beginning of the storage and membrane extracts revealed increasing carbonylation after 4 weeks of storage. Engaged molecular functions revealed that antioxidant (AO) are rather reversibly oxidized at their cysteine residue(s), but are irreversibly oxidized through carbonylation. In the meantime, the 20S proteasome activity is decreased by around 40 % at the end of the storage period. Incubation of fresh RBCs extracts with exogenous oxidized proteins showed a dose-dependent and protein-dependent inhibitory effect. Finally, we proved that the release of microvesicles allows the elimination of increasing quantities of carbonylated proteins. Taken together, these results revealed an oxidative pathway model of RBCs storage, on which further investigation towards improved storage conditions will be based. -- Les concentrés érythrocytaires (CE) sont le produit sanguin le plus délivré au monde, permettant de traiter différentes formes d'anémies. En Suisse, les CE sont stocké à 4 °C pendant 42 jours dans une solution saline d'adénine, glucose et mannitol (SAGM). Une telle conservation induit des lésions de stockage qui altèrent le métabolisme, les protéines et les propriétés rhéologique du globule rouge (GR). Un débat important concerne l'impact du temps de stockage des CE sur les risques de réaction transfusionnelles, certaines études tentant de démontrer que des transfusions de sang vieux réduiraient l'espérance de vie des patients. Cependant, aucune association concrète n'a été prouvée à ce jour. Alors que les modifications du métabolisme et changement précoces des propriétés rhéologiques sont réversibles suite à la transfusion du CE, les protéines oxydées ne peuvent être réparées, et il est probable que de telles lésions affectent la qualité et l'efficacité des produits sanguins. In vivo, les GR sont constamment exposés à l'oxygène, et sont donc bien équipés pour résister aux lésions oxydatives. De plus, les complexes fonctionnels de proteasome 20S reconnaissent et dégradent les protéines modérément oxydées, et certaines protéines peuvent être éliminées par les microparticules. Cette thèse de doctorat est imbriquée dans un projet de recherche global ayant pour objectif la caractérisation des effets de la préparation et du stockage sur la qualité des GR. Evaluer les dommages oxydatifs du GR pendant le stockage est primordial pour comprendre les mécanismes de vieillissement des produits sanguin. Dans ce but, des recherches orientées redoxomique ont été conduites. Dans une première partie, l'oxydation des cystéines et la carbonylation des protéines sont évaluées par électrophorèse bidimensionnelle différentielle et par immunodétection de protéines dérivatisées. Ensuite, les protéines d'intérêt ainsi que les protéines carbonylées, purifiées par affinité, sont identifiées par spectrométrie de masse en tandem. Les protéines cibles de l'oxydation sont classées selon leur fonction moléculaire. Dans une troisième partie, l'activité protéolytique du protéasome 20S est suivie durant la période de stockage. L'impact du stress oxydant sur cette activité a été évalué en utilisant des protéines exogènes oxydées in vitro. Le potentiel rôle défensif de la microvesiculation a également été étudié par la quantification des protéines carbonylées éliminées. Dans ce travail, nous avons observé que différents groupes de protéines sont affectés par l'oxydation réversible ou irréversible de leurs cystéines. De plus, une diminution de la carbonylation en début de stockage dans les extraits solubles et une augmentation de la carbonylation après 4 semaines dans les extraits membranaires ont été montrées. Les fonctions moléculaires engagées par les protéines altérées montrent que les défenses antioxydantes sont oxydées de façon réversible sur leurs résidus cystéines, mais sont également irréversiblement carbonylées. Pendant ce temps, l'activité protéolytique du protéasome 20S décroit de 40 % en fin de stockage. L'incubation d'extraits de GR en début de stockage avec des protéines oxydées exogènes montre un effet inhibiteur « dose-dépendant » et « protéine-dépendant ». Enfin, les microvésicules s'avèrent éliminer des quantités croissantes de protéines carbonylées. La synthèse de ces résultats permet de modéliser une voie oxydative du stockage des GRs, à partir de laquelle de futures recherches seront menées avec pour but l'amélioration des conditions de stockage.
Resumo:
Avant - Propos Le feu et la protection incendie Quel que soit l'usage d'un bâtiment, chaque étape de la construction est soumise à l'application de normes. Certaines, utilisées par les architectes et les ingénieurs, concernent le gros oeuvre ; en simplifiant leur rôle, elles assurent la solidité et la stabilité de l'immeuble. Si celui-ci est ouvert au public, des aménagements particuliers concernant la sécurité des personnes sont imposés. D'autres comme les prescriptions sur les installations électriques intérieures, précisent la manière de construire une alimentation, le type de matériel utilisable en fonction du courant et de la tension, les sécurités destinées à éviter toute détérioration des circuits et tout risque d'électrocution, etc. Enfin, les prescriptions en matière de protection incendie jouent évidemment un rôle préventif et, dans le domaine judiciaire, servent de références pour qualifier une éventuelle infraction ; elles évitent qu'une source de chaleur installée dans un bâtiment - tel qu'un appareil de chauffage ou des plaques de cuisson - ou susceptible d'apparaître consécutivement à l'usure d'un matériau ou à son vieillissement - disparition d'un isolant thermique, défaut d'étanchéité d'un conduit transportant les gaz chauds de combustion, par exemple - ne communiquent une partie de l'énergie calorifique dégagée à un combustible et ne l'enflamme. Le concept de protection incendie implique d'exposer et de développer les principales notions relatives à l'inflammation d'un matériau, à sa combustion ainsi qu'au transport de l'énergie calorifique. Fréquemment, le milieu dans lequel le générateur de chaleur est installé joue un rôle dans la phase d'allumage de l'incendie. Il est évident que les prescriptions de protection incendie s'appliquent à chaque élément de construction et, par conséquent, doivent être respectées par toute personne participant à la réalisation d'un ouvrage : le chauffagiste, l'électricien, l'installateur sanitaire, le constructeur de cuisine, mais également le maçon qui construit la cheminée, le peintre et le décorateur qui posent des revêtements ou des garnitures inflammables, le menuisier qui utilise le bois pour dissimuler des conduites de fumée, etc. Dès lors, tout sinistre, hormis celui qui est perpétré délibérément, ne peut s'expliquer que par : - le non-respect ou le défaut d'application d'une prescription de protection incendie; - une lacune de la norme qui ignore une source d'échauffement et/ou un mode de transfert de l'énergie calorifique. Le but premier de ce travail consiste à : - analyser les sinistres survenus durant les années 1999 à 2005 dans plusieurs cantons suisses qui ont fait l'objet d'une investigation de la part d'un service technique de la police ou d'un expert ; - examiner les éléments retenus pour expliquer la cause de l'incendie à la norme afin de répondre à la question : « l'application d'une ou de plusieurs directives lors de l'installation ou de l'utilisation du générateur d'énergie calorifique aurait-elle évité à ce dernier de communiquer une partie de la chaleur dégagée à un combustible et à l'enflammer ? » Le second objectif visé est d'apporter une solution à la question précédente : - si la norme existe, c'est un défaut d'installation ou d'utilisation de la source de chaleur qui est à l'origine de l'incendie. Il importe donc de connaître la raison pour laquelle la prescription a été ignorée ou appliquée de manière erronée ou lacunaire; - si la norme n'existe pas, ce sont les prescriptions en matière de protection incendie qui doivent être complétées. Le chapitre suivant abordera ces thèmes en proposant divers postulats destinés à évaluer l'efficacité actuelle du concept de protection incendie en Suisse.
Resumo:
Le concept de mécanismes de défense en psychanalyse fut introduit pour la première fois par S. Freud en¦1894 dans l'ouvrage Les psychonévroses de défense. Selon la définition qu'on lui donne de nos jours, ce¦concept regroupe « les processus psychiques inconscients visant à réduire ou annuler les effets désagréables des dangers réels ou imaginaires en remaniant les réalités internes et / ou externes et dont les manifestations peuvent être conscientes ou inconscientes1.»¦Les mécanismes de défense ne concernent d'ailleurs pas seulement les personnes souffrant d'un trouble¦psychiatrique, chacun de nous utilisant quotidiennement toutes sortes de défenses de quelque niveau de¦maturité qu'elles soient, nous permettant de nous adapter au contraintes affectives de tous les jours. Ils¦représentent de plus l'un des rares concepts en psychanalyse se prêtant à l'étude empirique, c'est pourquoi ils revêtent un grand intérêt dans la recherche actuellement. Grâce à l'élaboration d'une échelle d'évaluation de ces mécanismes par J. C. Perry (2009), le Defense Mechanisms Rating Scale, il est devenu possible de mettre en évidence « des liens entre les défenses et le niveau d'adaptation des patients, entre les défenses et la psychopathologie, et de montrer l'évolution des défenses au cours des psychothérapies psychanalytiques2.»¦Le DMRS comprend 28 défenses classées en 7 niveaux hiérarchiques en fonction de leur niveau¦d'adaptation. Il ne comprend cependant pas encore les défenses dites psychotiques. Toutefois, un groupe de travail s'attache à construire, puis à valider un instrument d'évaluation de ces mécanismes sous la forme d'un addendum au DMRS.¦Le but de mon travail sera d'évaluer quatre entretiens, deux de patients souffrant d'un trouble du spectre de la schizophrénie, deux d'un trouble bipolaire, sur la base des données recueillies par l'institut de¦psychothérapie du CHUV. A l'aide du DMRS, j'effectuerai une cotation de leur mécanismes de défense¦respectifs. Pour ce faire, il s'agira dans un premier temps de me familiariser avec l'outil qu'est le DMRS afin de pouvoir, dans un deuxième temps, mettre en évidence et analyser les mécanismes de défense utilisés par les patients lors de ces entretiens psychothérapeutiques. Les patients devraient montrer un niveau défensif global comparable, en vue de la gravité de leur pathologie. Cependant, des différences devraient apparaître quant aux catégories de défenses utilisées par chaque patient, puisque celles-ci dépendent de leur pathologie ainsi que de leur fonctionnement psychique pour faire face aux difficultés qu'il rencontre. Enfin, leurs niveaux défensifs seront pondérés par ce dont ils parleront dans l'entretien en question, en lien avec les interventions du thérapeute.¦Ce travail devrait me permettre de montrer que tout patient présente un large éventail de défenses, et pas¦seulement des défenses dites psychotiques. Il s'agira aussi de monter quelles sont les applications possibles et les limites de l'outil qu'est le DMRS.
Resumo:
Ce travail porte sur le développement des compétences sociales et des cercles sociaux à l'adolescence. Il s'intéresse plus particulièrement à l'effet au cours du temps que peuvent avoir les nouveaux moyens de communication électronique (MCE) sur ces deux aspects de la socialisation. Trois parties principales se dégagent de ce travail. La première partie présente le développement d'un outil multidimensionnel destiné à l'évaluation des compétences sociales et permettant de les distinguer en fonction du contexte d'interaction (online vs. offline). La seconde partie porte sur la comparaison des compétences sociales et de la taille du cercle social de 329 adolescents de 7e et de 8e année primaire, en fonction de leur utilisation, ou non, des MCE. Elle met en évidence que ces deux aspects diffèrent de manière statistiquement significative entre les deux groupes, en faveur des utilisateurs de MCE. La troisième partie se centre sur l'utilisation de différents MCE et sur les effets différentiels qu'ils peuvent avoir au cours du temps sur ces deux aspects de la socialisation. Les analyses des données longitudinales mettent en évidence que l'utilisation de sites de réseaux sociaux (SRS) est particulièrement susceptible d'améliorer les compétences sociales et d'augmenter la taille du cercle social. Un modèle dans lequel les compétences sociales jouent un rôle de médiateur entre l'utilisation de SRS et la taille du cercle social est finalement postulé. - This work's topic concerns the development of social skills and social network size during adolescence. It examines more particularly the effects that new online communication media (OCM) may have on these two aspects of adolescent socialization. It is subdivided in three distinct parts. The first part presents the development of a multidimensional tool designed to assess social skills in two different contexts of interaction (online vs. offline). The second part compares the social skills and social network size of 329 adolescents depending on their use, or not, of OCM. It highlights significant differences on these two aspects between users and non-users, in favor of OCM users. The third part focuses on the differential effects that six OCM may have over time on these two aspects of socialization. Longitudinal data analyses highlight that the use of social network sites (SNS) is particularly likely to improve social skills and to increase social network size. A model in which social skills mediate the relationship between SNS use and social network size is finally postulated.
Resumo:
Introduction Le cadre conceptuel de l'analyse économique considère que l'individu prend des décisions en mettant en balance les avantages et les inconvénients que ces décisions présentent pour lui. En s'appuyant sur ses préférences et en intégrant ses contraintes (matérielles, physiques, externes, etc.), il choisit d'effectuer ou non une action, d'adopter ou pas un comportement, de façon à ce que les conséquences de ses choix maximisent sa satisfaction. Le fait qu'un individu adopte un certain comportement révèle donc le caractère positif pour lui des conséquences de ce comportement. C'est le postulat méthodologique de rationalité du consommateur, fondement de toute analyse économique. L'adoption par un individu d'un comportement qui implique un risque pour son bien-être physique ou mental suit le même schéma d'analyse. Il résulte d'un arbitrage inter temporel entre la satisfaction que procure ce comportement et le coût du risque associé. Ce risque se définit par la combinaison de la probabilité d'occurrence de l'événement redouté avec la gravité de ses conséquences. En adoptant un comportement à risque, l'individu révèle donc que ce comportement a pour lui un impact net positif. Certains comportements à risque, comme la consommation de tabac et, plus largement, de psychotropes, engendrent une dépendance à même de brider le libre-arbitre du consommateur. Un individu peut être amené à consommer un produit alors même que sa raison lui dicte de ne pas le faire. Ces comportements ont longtemps été considérés par les économistes comme extérieurs au champ d'analyse de leur discipline, la dépendance paraissant antinomique avec le concept de rationalité du consommateur. Par son modèle de dépendance rationnelle, Gary Stanley Becker prend le contre-pied de cette approche en montrant qu'un comportement de dépendance pouvait parfaitement s'expliquer par la maximisation de la fonction de satisfaction d'un individu rationnel et informé. Il postule que les consommateurs de stupéfiants sont conscients des conséquences futures de leurs décisions présentes, tant du point de vue de leur santé que de celui de la dépendance. Dans ce modèle, la dépendance implique deux effets le renforcement et la tolérance. Le renforcement signifie que plus un bien a été consommé dans le passé, plus l'augmentation de sa consommation courante est valorisée. En d'autres termes, l'utilité marginale de la consommation courante augmente avec la consommation antérieure. La tolérance traduit le fait qu'un individu habitué à la consommation d'un bien tirera d'une consommation donnée une satisfaction inférieure par rapport à un individu qui a peu consommé par le passé. Dans l'exemple du tabagisme, l'effet de renforcement implique qu'un grand fumeur ressent une forte envie de fumer, mais que plus il a fumé dans le passé, plus le plaisir qu'il ressent en fumant une quantité donnée de cigarettes diminue. Le premier effet explique le phénomène de manque et le second explique pourquoi la satisfaction qu'un fumeur retire de sa consommation de cigarettes tend à diminuer avec le temps. Selon Becker, l'individu choisit de devenir dépendant : il sait que sa consommation présente de cigarettes contraint ses choix futurs et il détermine au départ sa consommation sur l'ensemble de sa vie. Cependant, ce modèle n'est pas compatible avec les regrets exprimés par de nombreux fumeurs et les tentatives infructueuses de sevrage souvent concomitantes. Un fumeur qui anticiperait parfaitement le phénomène de dépendance arrêterait de fumer à la date voulue, à sa première tentative. Partant de ce constat, Athanasios Orphanides a construit un modèle dans lequel les fumeurs peuvent se retrouver prisonniers de leur consommation par des anticipations imparfaites du pouvoir addictif du tabac. Leur théorie suppose que les individus ne sont pas tous sujets de la même manière à la dépendance, que chacun a une perception subjective de son risque de dépendance et que cette perception évolue constamment durant la période de consommation du bien addictif. Dans ce contexte, un individu qui maximise des préférences stables, mais qui sous-estime le potentiel addictif d'un produit peut devenir dépendant par accident et regretter ensuite cette dépendance. Le modèle de Becker ou celui d'Orphanides ont des conséquences très différentes sur l'action régulatrice que doit ou non jouer l'État sur le marché d'un bien addictif. Si, comme Becker, on considère que les consommateurs sont rationnels et parfaitement informés des conséquences de leurs actes, l'action du régulateur devrait se limiter à l'internalisation du coût externe que les fumeurs font peser sur la société. Si le fumeur est conscient du risque qu'il prend et que pour lui le plaisir qu'il retire de cette consommation dépasse le déplaisir engendré par ses conséquences, une intervention du régulateur reposerait sur une base paternaliste, l'État posant alors un jugement de valeur sur les préférences des individus. En revanche, si on considère, comme dans la modélisation d'Orphanides, que les fumeurs sous-estiment le phénomène de dépendance lorsqu'ils décident de se mettre à fumer, un marché non régulé conduit à une consommation supérieure à celle qui prévaudrait en information parfaite. Certains fumeurs peuvent ainsi se retrouver accrochés à leur consommation de tabac, sans que cela ait été leur but. Dans cette perspective, l'État est légitimé à intervenir par des politiques de lutte contre le tabagisme, afin de compenser les erreurs d'anticipation des individus. Cette thèse propose d'appliquer les outils de l'analyse économique à des problématiques de santé publique dans le domaine des comportements à risque et en particulier du tabagisme. Elle a pour finalité d'apporter de nouveaux éléments de connaissance permettant d'éclairer certains choix de régulation dans ce domaine. Le premier chapitre est une analyse coût-efficacité des thérapies médicamenteuses de soutien à la désaccoutumance tabagique. Comme nous l'avons vu plus haut, certains fumeurs se trouvent piégés dans leur consommation par le phénomène de dépendance et ont des difficultés à arrêter de fumer. Ces dernières années, plusieurs médicaments de soutien au fumeur en phase de sevrage ont fait leur apparition. Parmi eux, on compte des substituts nicotiniques sous forme de gomme, patch, spray ou inhalateur, mais aussi un antidépresseur ne contenant pas de nicotine. Ces traitements présentent des efficacités et des coûts différents. L'évaluation économique en santé permet de calculer un indicateur unique d'efficience qui synthétise l'efficacité d'un traitement et son coût. Cette méthode permet de comparer différents types de prises en charge médicales d'une même pathologie, mais aussi de comparer des interventions thérapeutiques dans des domaines différents. Nous développons un modèle de Markov pour estimer le gain en année de vie d'une stratégie de prévention du tabagisme. Ce modèle permet de simuler le devenir d'une cohorte de fumeurs en fonction du type de soutien à la désaccoutumance qui leur est proposé. Sur cette base, nous calculons le coût par année de vie gagnée de chaque type d'intervention. Les résultats permettent de classer les cinq types de prise en charge selon leur efficience, mais aussi de les comparer à d'autres interventions de prévention dans des domaines différents. Le deuxième chapitre traite des corrélations entre le niveau de formation des individus et leur consommation de tabac. Sur un plan épidémiologique, on constate que les personnes qui atteignent un niveau de formation plus élevé ont une propension à fumer plus faible que les autres. Peut-on en conclure qu'il existe une relation causale inverse entre formation et tabagisme ? Sous l'angle de la théorie économique, il existe deux principales hypothèses à même d'expliquer cette corrélation. La première hypothèse repose sur le modèle de capital santé développé par Michael Grossman au début des années 1970. Dans ce modèle, l'individu dispose d'un stock de santé qui se déprécie avec le temps. Ce stock peut être augmenté grâce à des dépenses en soins médicaux ou à des investissements en temps consacré à l'amélioration de sa santé. La formation a pour effet d'augmenter l'efficacité des investissements en santé. Dans le cas du tabac, Grossman considère que des individus mieux formés auront une meilleurs information sur les méfaits du tabac sur la santé, ce qui tendra à diminuer leur consommation de tabac. La seconde hypothèse ne considère pas un lien causal entre la formation et la santé, mais repose sur l'existence d'une tierce variable qui influencerait parallèlement, et dans un sens opposé, le niveau de formation et la propension à fumer. Cette tierce variable est le taux de préférence pour le présent. Pour un individu fortement tourné vers le présent, l'investissement en temps de formation a un coût relativement élevé dans la mesure où il doit sacrifier du revenu aujourd'hui pour obtenir un revenu plus élevé demain. Parallèlement, il pondère moins fortement la santé future et a donc une plus forte propension à fumer. Nous développons une méthode économétrique qui permet de séparer l'effet de causalité de l'effet de sélection. Le troisième chapitre traite du rôle des interactions sociales dans les comportements à risque des adolescents. La théorie économique considère que chaque individu définit seul ses choix de consommation en maximisant sa fonction d'utilité. Cela ne signifie pas pour autant qu'il soit insensible aux influences extérieures, notamment au comportement de son entourage. Dans certaines situations et pour certains produits, l'utilité que procure la consommation d'un bien est corrélée avec le nombre de personnes qui consomment ce même bien dans l'entourage. En d'autres termes, la consommation des autres, augmente la valeur que l'on attribue à un bien. Ce mécanisme est souvent appliqué à l'analyse des comportements à risque des adolescents et du rôle que peut y jouer le groupe des pairs. Si cet impact est bien connu du point de vue théorique, il est beaucoup plus difficile de le quantifier sur un plan empirique. Pour identifier cet effet, nous développons une méthodologie économétrique, originale dans ce contexte, qui permet de séparer l'effet individuel de l'effet d'influence des pairs dans l'adoption d'un comportement à risque. Nous appliquons cette méthode aux trois comportements à risque que sont la consommation de tabac, d'alcool et de cannabis chez les adolescents.
Resumo:
Introduction : La sécrétion d'insuline est régulée par le glucose et également pardes hormones peptidiques libérées par le tractus digestif, comme la neurotensine(NT). La NT est un neuropeptide, sécrété notamment par les cellules N dela paroi de l'estomac, qui exerce des fonctions régulatrices complexes dans lesystème digestif. Notre laboratoire a récemment démontré que les cellulesendocrines du pancréas (les îlots de Langherans) expriment les trois récepteursconnus de la NT. Nous avons montré que la NT module la survie de la cellulebêta pancréatique (Coppola et al. 2008). Cette fonction met en jeu deux desrécepteurs de la NT, le NTSR2 et le NTSR3 qui forment, après stimulation parla NT, un complexe protéique régulateur de la survie des cellules (Béraud-Dufour et al. 2009) et également de la sécrétion d'insuline (Béraud-Dufour et al.2010).Matériels et méthodes : La caractérisation pharmacologique de l'effet NT sur lasécrétion d'insuline a été faite à l'aide de ligands spécifiques (agonistes ou antagonistes),dans des expériences d'imagerie calciques et d'exocytose. Nous avonsmesuré l'acivation des PKC par imagerie en temps réel. Afin de déterminer lerôle de la NT dans la physiologie générale nous avons utilisé des modèles in vitro(lignées de cellules INS-1E) et in vivo (souris invalidées NTSR1 et NTSR2).Résultats : Nous avons montré que les récepteurs NTSR2 et NTSR3 interviennentdans la modulation de la sécrétion d'insuline en fonction des conditionsphysiologiques : 1) la NT stimule la sécrétion dans des conditions basales deglucose. 2) elle inhibe la sécrétion dans des situations d'hyperglycémie. La NTmobilise plusieurs activités protéines kinases C (PKC) nécessaires à son rôlephysiologique (Béraud-Dufour et al. 2010).Par ailleurs, sur les modèles murins l'étude du métabolisme de souris transgéniquesinvalidées pour les gènes des NTSR1 et NTSR2 a permis de mettre en évidencel'implication de la NT dans la régulation de l'homéostasie du glucose. Invivo, nous avons observé que l'injection intra péritonéale de NT diminue la glycémieet que cet effet nécessite la présence du NTSR1. Nous avons observé quel'invalidation du gène du NTSR1 affecte la réponse des souris lors des tests detolérance au glucose et à l'insulineConclusion : Les résultats obtenus dans cette étude prouvent que le bon fonctionnementdu système neurotensinergique est nécessaire au maintien d'uneglycémie stable. La dérégulation de ce système pourrait être l'un des facteursimpliqué dans la survenue et/ou l'aggravation d'un diabète de type 2.
Resumo:
"L'emploi et les conditions de travail ont une grande incidence sur l'équité en santé", note l'Organisation mondiale de la santé (OMS) dans un rapport publié en 2008: ils font partie des principaux déterminants sociaux "à l'origine d'une grande part des inégalités en santé observées entre pays et dans les pays". Ce constat se fonde sur un vaste corpus d'enquêtes et de recherches menées à l'échelle internationale, dont le renouveau ces trois dernières décennies a été stimulé par l'explosion du chômage et de la précarisation de l'emploi, ainsi que par l'intensification du travail. Pour la première fois, une vue chiffrée d'ensemble de cette problématique est également disponible pour la Suisse, basée sur les données de la dernière enquête suisse sur la santé, réalisée en 2007 par l'Office fédéral de la statistique (OFS). L'étude dont nous présentons ici les résultats cherche à répondre à trois questions?: 1) Quelles sont les conditions de travail à risque (physique ou psycho-social) les plus fréquentes? Qui y est le plus exposé, en fonction notamment du sexe, de la position sociale ou de la branche d'activité? 2) Quelles associations peut-on mettre en évidence entre ces conditions de travail et l'état de santé? 3) Quels sont les liens entre le fait d'être au chômage ou de craindre pour son emploi et l'état de santé? Les données analysées révèlent un lien significatif entre les conditions de travail à risques, plus fréquentes que souvent admis, et une santé dégradée chez les personnes concernées. L'association est encore plus forte avec le fait d'être au chômage. Ces réalités sont souvent passées sous silence, en Suisse encore plus qu'ailleurs. Cette étude contribue à les rendre visibles et à instruire ainsi le débat nécessaire sur les conditions économiques et sociales de leur changement. Débat dont l'actualité est redoublée par les conséquences dramatiques sur l'emploi et sur les conditions de travail de l'actuelle crise économique internationale. [Ed.]
Resumo:
Résumé Fondement : le développement de solutions d'hydroxy-éthyl-amidons (HEAS) avec peu d'impact sur la coagulation sanguine, mais un effet supérieur sur la volémie, par comparaison aux HEAS couramment utilisés, est d'un grand intérêt clinique. Nous posons l'hypothèse que des solutions de haut poids moléculaire et de bas degré de substitution possèdent ces caractéristiques. Méthode : trente porcs ont été perfusés avec trois HEAS différents (20 ml/kg) de même degré de substitution (0.42) mais de poids moléculaire différent (130, 500 et 900 kDa). Une série de prélèvements sanguins ont été effectués sur 24 heures, sur lesquels des analyses de coagulation sanguine étaient effectuées par thromboélastographie et dosages plasmatiques. De plus, la concentration plasmatique ainsi que le poids moléculaire in vivo ont été déterminés, ainsi que des paramètres de pharmacocinétiques, ceci en se basant sur un modèle bi-compartimental. Résultats : les analyses de thromboélastographie et les tests de coagulation plasmatique n'ont pas démontré d'altération plus marquée de la coagulation sanguine après l'utilisation des solutions des HAES 500 et HAES 900, par comparaison avec celle de HAES 130. Par contre, les HAES 500 et HAES 900 ont présenté une plus grande aire sous la courbe (area under the curve), dans la relation concentration en fonction du temps [1542 (142) g min litre-1, p<0.001, 1701 (321) g min litre-1, p<0.001] par rapport au HAES 130 [1156 (223) g min litre-1]. La demi-vie alpha (t ½α) était plus longue pour les HAES 500 [53.8 (8.6) min, p<0.01] et HAES 900 [57.1 (12.3) min, p<0.01 ]que pour le HAES 130 [39.9 (10.7) min]. La demi-vie beta (t½β) était par contre similaire pour les trois types de HAES [de 332 (100) à 381 (63) min]. Conclusions : pour les HAES de bas degré de substitution, le poids moléculaire n'est pas un facteur clé en ce qui concerne l'altération de la coagulation. La persistance intravasculaire initialement plus longue des HAES de haut poids moléculaire et bas degré de substitution pourrait résulter dans un plus long effet volémique de ces substances. Abstract Background: The development of hydroxyethyl starches (HES) with low impact on blood coagulation but higher volume effect compared with the currently used HES solutions is of clinical interest. We hypothesized that high molecular weight, low-substituted HES might possess these properties. Methods: Thirty pigs were infused with three different HES solutions (20 ml kg-1) with the same degree of molar substitution (0.42) but different molecular weights (130, 500 and 900 kDa). Serial blood samples were taken over 24 h and blood coagulation was assessed by Thromboelastograph® analysis and analysis of plasma coagulation. In addition, plasma concentration and in vivo molecular weight were determined and pharmacokinetic data were computed based on a two-compartment model. Results: Thromboelastograph analysis and plasma coagulation tests did not reveal a more pronounced alteration of blood coagulation with HES 500 and HES 900 compared with HES 130. In contrast, HES 500 and HES 900 had a greater area under the plasma concentration-time curve [1542 (142) g min litre-1, P<0.001, 1701 (321) g min litre-1, P<0.001] than HES 130 [I 156 (223) g min litre-1] and alpha half life (t ½α) was longer for HES 500 [53.8 (8.6) min, P<0.01 ] and HES 900 [57. I (I 2.3) min, P<0.01 ] than for HES 130 [39.9 (I 0.7) min]. Beta half life (t½β), however, was similar for all three types of HES [from 332 (100) to 381 (63) min]. Conclusions. In low-substituted HES, molecular weight is not a key factor in compromising blood coagulation. The longer initial intravascular persistence of high molecular weight lowsubstituted HES might result in a longer lasting volume effect.
Resumo:
Comprend : [Fig. à la Page de Titre : cartouche avec devise, ange et soldat.] In Hoc Signo Vinces. [Cote : Ye 669/Microfilm R 122335] ; [Fronstispice après la Page de Titre : Le Parnasse, Apolllon et les Muses.] [Cote : Ye 669/Microfilm R 122335] ; [Bandeau et lettre historiée folio Aiij : putti dessinant, travaillant la peinture, le modelage, la géométrie et la perspective. La reine Marie de Médicis offrant à Dieu la construction du Val-de-Grâce.] [Cote : Ye 669/Microfilm R 122335] ; [Fig. p.26 : allégories du Temps, de la Mort et de la Peinture (ou Postérité?), putti.] [Cote : Ye 669/Microfilm R 122335]
Resumo:
Les instabilités engendrées par des gradients de densité interviennent dans une variété d'écoulements. Un exemple est celui de la séquestration géologique du dioxyde de carbone en milieux poreux. Ce gaz est injecté à haute pression dans des aquifères salines et profondes. La différence de densité entre la saumure saturée en CO2 dissous et la saumure environnante induit des courants favorables qui le transportent vers les couches géologiques profondes. Les gradients de densité peuvent aussi être la cause du transport indésirable de matières toxiques, ce qui peut éventuellement conduire à la pollution des sols et des eaux. La gamme d'échelles intervenant dans ce type de phénomènes est très large. Elle s'étend de l'échelle poreuse où les phénomènes de croissance des instabilités s'opèrent, jusqu'à l'échelle des aquifères à laquelle interviennent les phénomènes à temps long. Une reproduction fiable de la physique par la simulation numérique demeure donc un défi en raison du caractère multi-échelles aussi bien au niveau spatial et temporel de ces phénomènes. Il requiert donc le développement d'algorithmes performants et l'utilisation d'outils de calculs modernes. En conjugaison avec les méthodes de résolution itératives, les méthodes multi-échelles permettent de résoudre les grands systèmes d'équations algébriques de manière efficace. Ces méthodes ont été introduites comme méthodes d'upscaling et de downscaling pour la simulation d'écoulements en milieux poreux afin de traiter de fortes hétérogénéités du champ de perméabilité. Le principe repose sur l'utilisation parallèle de deux maillages, le premier est choisi en fonction de la résolution du champ de perméabilité (grille fine), alors que le second (grille grossière) est utilisé pour approximer le problème fin à moindre coût. La qualité de la solution multi-échelles peut être améliorée de manière itérative pour empêcher des erreurs trop importantes si le champ de perméabilité est complexe. Les méthodes adaptatives qui restreignent les procédures de mise à jour aux régions à forts gradients permettent de limiter les coûts de calculs additionnels. Dans le cas d'instabilités induites par des gradients de densité, l'échelle des phénomènes varie au cours du temps. En conséquence, des méthodes multi-échelles adaptatives sont requises pour tenir compte de cette dynamique. L'objectif de cette thèse est de développer des algorithmes multi-échelles adaptatifs et efficaces pour la simulation des instabilités induites par des gradients de densité. Pour cela, nous nous basons sur la méthode des volumes finis multi-échelles (MsFV) qui offre l'avantage de résoudre les phénomènes de transport tout en conservant la masse de manière exacte. Dans la première partie, nous pouvons démontrer que les approximations de la méthode MsFV engendrent des phénomènes de digitation non-physiques dont la suppression requiert des opérations de correction itératives. Les coûts de calculs additionnels de ces opérations peuvent toutefois être compensés par des méthodes adaptatives. Nous proposons aussi l'utilisation de la méthode MsFV comme méthode de downscaling: la grille grossière étant utilisée dans les zones où l'écoulement est relativement homogène alors que la grille plus fine est utilisée pour résoudre les forts gradients. Dans la seconde partie, la méthode multi-échelle est étendue à un nombre arbitraire de niveaux. Nous prouvons que la méthode généralisée est performante pour la résolution de grands systèmes d'équations algébriques. Dans la dernière partie, nous focalisons notre étude sur les échelles qui déterminent l'évolution des instabilités engendrées par des gradients de densité. L'identification de la structure locale ainsi que globale de l'écoulement permet de procéder à un upscaling des instabilités à temps long alors que les structures à petite échelle sont conservées lors du déclenchement de l'instabilité. Les résultats présentés dans ce travail permettent d'étendre les connaissances des méthodes MsFV et offrent des formulations multi-échelles efficaces pour la simulation des instabilités engendrées par des gradients de densité. - Density-driven instabilities in porous media are of interest for a wide range of applications, for instance, for geological sequestration of CO2, during which CO2 is injected at high pressure into deep saline aquifers. Due to the density difference between the C02-saturated brine and the surrounding brine, a downward migration of CO2 into deeper regions, where the risk of leakage is reduced, takes place. Similarly, undesired spontaneous mobilization of potentially hazardous substances that might endanger groundwater quality can be triggered by density differences. Over the last years, these effects have been investigated with the help of numerical groundwater models. Major challenges in simulating density-driven instabilities arise from the different scales of interest involved, i.e., the scale at which instabilities are triggered and the aquifer scale over which long-term processes take place. An accurate numerical reproduction is possible, only if the finest scale is captured. For large aquifers, this leads to problems with a large number of unknowns. Advanced numerical methods are required to efficiently solve these problems with today's available computational resources. Beside efficient iterative solvers, multiscale methods are available to solve large numerical systems. Originally, multiscale methods have been developed as upscaling-downscaling techniques to resolve strong permeability contrasts. In this case, two static grids are used: one is chosen with respect to the resolution of the permeability field (fine grid); the other (coarse grid) is used to approximate the fine-scale problem at low computational costs. The quality of the multiscale solution can be iteratively improved to avoid large errors in case of complex permeability structures. Adaptive formulations, which restrict the iterative update to domains with large gradients, enable limiting the additional computational costs of the iterations. In case of density-driven instabilities, additional spatial scales appear which change with time. Flexible adaptive methods are required to account for these emerging dynamic scales. The objective of this work is to develop an adaptive multiscale formulation for the efficient and accurate simulation of density-driven instabilities. We consider the Multiscale Finite-Volume (MsFV) method, which is well suited for simulations including the solution of transport problems as it guarantees a conservative velocity field. In the first part of this thesis, we investigate the applicability of the standard MsFV method to density- driven flow problems. We demonstrate that approximations in MsFV may trigger unphysical fingers and iterative corrections are necessary. Adaptive formulations (e.g., limiting a refined solution to domains with large concentration gradients where fingers form) can be used to balance the extra costs. We also propose to use the MsFV method as downscaling technique: the coarse discretization is used in areas without significant change in the flow field whereas the problem is refined in the zones of interest. This enables accounting for the dynamic change in scales of density-driven instabilities. In the second part of the thesis the MsFV algorithm, which originally employs one coarse level, is extended to an arbitrary number of coarse levels. We prove that this keeps the MsFV method efficient for problems with a large number of unknowns. In the last part of this thesis, we focus on the scales that control the evolution of density fingers. The identification of local and global flow patterns allows a coarse description at late times while conserving fine-scale details during onset stage. Results presented in this work advance the understanding of the Multiscale Finite-Volume method and offer efficient dynamic multiscale formulations to simulate density-driven instabilities. - Les nappes phréatiques caractérisées par des structures poreuses et des fractures très perméables représentent un intérêt particulier pour les hydrogéologues et ingénieurs environnementaux. Dans ces milieux, une large variété d'écoulements peut être observée. Les plus communs sont le transport de contaminants par les eaux souterraines, le transport réactif ou l'écoulement simultané de plusieurs phases non miscibles, comme le pétrole et l'eau. L'échelle qui caractérise ces écoulements est définie par l'interaction de l'hétérogénéité géologique et des processus physiques. Un fluide au repos dans l'espace interstitiel d'un milieu poreux peut être déstabilisé par des gradients de densité. Ils peuvent être induits par des changements locaux de température ou par dissolution d'un composé chimique. Les instabilités engendrées par des gradients de densité revêtent un intérêt particulier puisque qu'elles peuvent éventuellement compromettre la qualité des eaux. Un exemple frappant est la salinisation de l'eau douce dans les nappes phréatiques par pénétration d'eau salée plus dense dans les régions profondes. Dans le cas des écoulements gouvernés par les gradients de densité, les échelles caractéristiques de l'écoulement s'étendent de l'échelle poreuse où les phénomènes de croissance des instabilités s'opèrent, jusqu'à l'échelle des aquifères sur laquelle interviennent les phénomènes à temps long. Etant donné que les investigations in-situ sont pratiquement impossibles, les modèles numériques sont utilisés pour prédire et évaluer les risques liés aux instabilités engendrées par les gradients de densité. Une description correcte de ces phénomènes repose sur la description de toutes les échelles de l'écoulement dont la gamme peut s'étendre sur huit à dix ordres de grandeur dans le cas de grands aquifères. Il en résulte des problèmes numériques de grande taille qui sont très couteux à résoudre. Des schémas numériques sophistiqués sont donc nécessaires pour effectuer des simulations précises d'instabilités hydro-dynamiques à grande échelle. Dans ce travail, nous présentons différentes méthodes numériques qui permettent de simuler efficacement et avec précision les instabilités dues aux gradients de densité. Ces nouvelles méthodes sont basées sur les volumes finis multi-échelles. L'idée est de projeter le problème original à une échelle plus grande où il est moins coûteux à résoudre puis de relever la solution grossière vers l'échelle de départ. Cette technique est particulièrement adaptée pour résoudre des problèmes où une large gamme d'échelle intervient et évolue de manière spatio-temporelle. Ceci permet de réduire les coûts de calculs en limitant la description détaillée du problème aux régions qui contiennent un front de concentration mobile. Les aboutissements sont illustrés par la simulation de phénomènes tels que l'intrusion d'eau salée ou la séquestration de dioxyde de carbone.
Resumo:
Ces dernières années, de nombreuses recherches ont mis en évidence les effets toxiques des micropolluants organiques pour les espèces de nos lacs et rivières. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, alors que les organismes sont exposés tous les jours à des milliers de substances en mélange. Or les effets de ces cocktails ne sont pas négligeables. Cette thèse de doctorat s'est ainsi intéressée aux modèles permettant de prédire le risque environnemental de ces cocktails pour le milieu aquatique. Le principal objectif a été d'évaluer le risque écologique des mélanges de substances chimiques mesurées dans le Léman, mais aussi d'apporter un regard critique sur les méthodologies utilisées afin de proposer certaines adaptations pour une meilleure estimation du risque. Dans la première partie de ce travail, le risque des mélanges de pesticides et médicaments pour le Rhône et pour le Léman a été établi en utilisant des approches envisagées notamment dans la législation européenne. Il s'agit d'approches de « screening », c'est-à-dire permettant une évaluation générale du risque des mélanges. Une telle approche permet de mettre en évidence les substances les plus problématiques, c'est-à-dire contribuant le plus à la toxicité du mélange. Dans notre cas, il s'agit essentiellement de 4 pesticides. L'étude met également en évidence que toutes les substances, même en trace infime, contribuent à l'effet du mélange. Cette constatation a des implications en terme de gestion de l'environnement. En effet, ceci implique qu'il faut réduire toutes les sources de polluants, et pas seulement les plus problématiques. Mais l'approche proposée présente également un biais important au niveau conceptuel, ce qui rend son utilisation discutable, en dehors d'un screening, et nécessiterait une adaptation au niveau des facteurs de sécurité employés. Dans une deuxième partie, l'étude s'est portée sur l'utilisation des modèles de mélanges dans le calcul de risque environnemental. En effet, les modèles de mélanges ont été développés et validés espèce par espèce, et non pour une évaluation sur l'écosystème en entier. Leur utilisation devrait donc passer par un calcul par espèce, ce qui est rarement fait dû au manque de données écotoxicologiques à disposition. Le but a été donc de comparer, avec des valeurs générées aléatoirement, le calcul de risque effectué selon une méthode rigoureuse, espèce par espèce, avec celui effectué classiquement où les modèles sont appliqués sur l'ensemble de la communauté sans tenir compte des variations inter-espèces. Les résultats sont dans la majorité des cas similaires, ce qui valide l'approche utilisée traditionnellement. En revanche, ce travail a permis de déterminer certains cas où l'application classique peut conduire à une sous- ou sur-estimation du risque. Enfin, une dernière partie de cette thèse s'est intéressée à l'influence que les cocktails de micropolluants ont pu avoir sur les communautés in situ. Pour ce faire, une approche en deux temps a été adoptée. Tout d'abord la toxicité de quatorze herbicides détectés dans le Léman a été déterminée. Sur la période étudiée, de 2004 à 2009, cette toxicité due aux herbicides a diminué, passant de 4% d'espèces affectées à moins de 1%. Ensuite, la question était de savoir si cette diminution de toxicité avait un impact sur le développement de certaines espèces au sein de la communauté des algues. Pour ce faire, l'utilisation statistique a permis d'isoler d'autres facteurs pouvant avoir une influence sur la flore, comme la température de l'eau ou la présence de phosphates, et ainsi de constater quelles espèces se sont révélées avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps. Fait intéressant, une partie d'entre-elles avait déjà montré des comportements similaires dans des études en mésocosmes. En conclusion, ce travail montre qu'il existe des modèles robustes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques, et qu'ils peuvent être utilisés pour expliquer le rôle des substances dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application. - Depuis plusieurs années, les risques que posent les micropolluants organiques pour le milieu aquatique préoccupent grandement les scientifiques ainsi que notre société. En effet, de nombreuses recherches ont mis en évidence les effets toxiques que peuvent avoir ces substances chimiques sur les espèces de nos lacs et rivières, quand elles se retrouvent exposées à des concentrations aiguës ou chroniques. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, c'est à dire considérées séparément. Actuellement, il en est de même dans les procédures de régulation européennes, concernant la partie évaluation du risque pour l'environnement d'une substance. Or, les organismes sont exposés tous les jours à des milliers de substances en mélange, et les effets de ces "cocktails" ne sont pas négligeables. L'évaluation du risque écologique que pose ces mélanges de substances doit donc être abordé par de la manière la plus appropriée et la plus fiable possible. Dans la première partie de cette thèse, nous nous sommes intéressés aux méthodes actuellement envisagées à être intégrées dans les législations européennes pour l'évaluation du risque des mélanges pour le milieu aquatique. Ces méthodes sont basées sur le modèle d'addition des concentrations, avec l'utilisation des valeurs de concentrations des substances estimées sans effet dans le milieu (PNEC), ou à partir des valeurs des concentrations d'effet (CE50) sur certaines espèces d'un niveau trophique avec la prise en compte de facteurs de sécurité. Nous avons appliqué ces méthodes à deux cas spécifiques, le lac Léman et le Rhône situés en Suisse, et discuté les résultats de ces applications. Ces premières étapes d'évaluation ont montré que le risque des mélanges pour ces cas d'étude atteint rapidement une valeur au dessus d'un seuil critique. Cette valeur atteinte est généralement due à deux ou trois substances principales. Les procédures proposées permettent donc d'identifier les substances les plus problématiques pour lesquelles des mesures de gestion, telles que la réduction de leur entrée dans le milieu aquatique, devraient être envisagées. Cependant, nous avons également constaté que le niveau de risque associé à ces mélanges de substances n'est pas négligeable, même sans tenir compte de ces substances principales. En effet, l'accumulation des substances, même en traces infimes, atteint un seuil critique, ce qui devient plus difficile en terme de gestion du risque. En outre, nous avons souligné un manque de fiabilité dans ces procédures, qui peuvent conduire à des résultats contradictoires en terme de risque. Ceci est lié à l'incompatibilité des facteurs de sécurité utilisés dans les différentes méthodes. Dans la deuxième partie de la thèse, nous avons étudié la fiabilité de méthodes plus avancées dans la prédiction de l'effet des mélanges pour les communautés évoluant dans le système aquatique. Ces méthodes reposent sur le modèle d'addition des concentrations (CA) ou d'addition des réponses (RA) appliqués sur les courbes de distribution de la sensibilité des espèces (SSD) aux substances. En effet, les modèles de mélanges ont été développés et validés pour être appliqués espèce par espèce, et non pas sur plusieurs espèces agrégées simultanément dans les courbes SSD. Nous avons ainsi proposé une procédure plus rigoureuse, pour l'évaluation du risque d'un mélange, qui serait d'appliquer d'abord les modèles CA ou RA à chaque espèce séparément, et, dans une deuxième étape, combiner les résultats afin d'établir une courbe SSD du mélange. Malheureusement, cette méthode n'est pas applicable dans la plupart des cas, car elle nécessite trop de données généralement indisponibles. Par conséquent, nous avons comparé, avec des valeurs générées aléatoirement, le calcul de risque effectué selon cette méthode plus rigoureuse, avec celle effectuée traditionnellement, afin de caractériser la robustesse de cette approche qui consiste à appliquer les modèles de mélange sur les courbes SSD. Nos résultats ont montré que l'utilisation de CA directement sur les SSDs peut conduire à une sous-estimation de la concentration du mélange affectant 5 % ou 50% des espèces, en particulier lorsque les substances présentent un grand écart- type dans leur distribution de la sensibilité des espèces. L'application du modèle RA peut quant à lui conduire à une sur- ou sous-estimations, principalement en fonction de la pente des courbes dose- réponse de chaque espèce composant les SSDs. La sous-estimation avec RA devient potentiellement importante lorsque le rapport entre la EC50 et la EC10 de la courbe dose-réponse des espèces est plus petit que 100. Toutefois, la plupart des substances, selon des cas réels, présentent des données d' écotoxicité qui font que le risque du mélange calculé par la méthode des modèles appliqués directement sur les SSDs reste cohérent et surestimerait plutôt légèrement le risque. Ces résultats valident ainsi l'approche utilisée traditionnellement. Néanmoins, il faut garder à l'esprit cette source d'erreur lorsqu'on procède à une évaluation du risque d'un mélange avec cette méthode traditionnelle, en particulier quand les SSD présentent une distribution des données en dehors des limites déterminées dans cette étude. Enfin, dans la dernière partie de cette thèse, nous avons confronté des prédictions de l'effet de mélange avec des changements biologiques observés dans l'environnement. Dans cette étude, nous avons utilisé des données venant d'un suivi à long terme d'un grand lac européen, le lac Léman, ce qui offrait la possibilité d'évaluer dans quelle mesure la prédiction de la toxicité des mélanges d'herbicide expliquait les changements dans la composition de la communauté phytoplanctonique. Ceci à côté d'autres paramètres classiques de limnologie tels que les nutriments. Pour atteindre cet objectif, nous avons déterminé la toxicité des mélanges sur plusieurs années de 14 herbicides régulièrement détectés dans le lac, en utilisant les modèles CA et RA avec les courbes de distribution de la sensibilité des espèces. Un gradient temporel de toxicité décroissant a pu être constaté de 2004 à 2009. Une analyse de redondance et de redondance partielle, a montré que ce gradient explique une partie significative de la variation de la composition de la communauté phytoplanctonique, même après avoir enlevé l'effet de toutes les autres co-variables. De plus, certaines espèces révélées pour avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps, ont montré des comportements similaires dans des études en mésocosmes. On peut en conclure que la toxicité du mélange herbicide est l'un des paramètres clés pour expliquer les changements de phytoplancton dans le lac Léman. En conclusion, il existe diverses méthodes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques et celui-ci peut jouer un rôle dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application, avant d'utiliser leurs résultats pour la gestion des risques environnementaux. - For several years now, the scientists as well as the society is concerned by the aquatic risk organic micropollutants may pose. Indeed, several researches have shown the toxic effects these substances may induce on organisms living in our lakes or rivers, especially when they are exposed to acute or chronic concentrations. However, most of the studies focused on the toxicity of single compounds, i.e. considered individually. The same also goes in the current European regulations concerning the risk assessment procedures for the environment of these substances. But aquatic organisms are typically exposed every day simultaneously to thousands of organic compounds. The toxic effects resulting of these "cocktails" cannot be neglected. The ecological risk assessment of mixtures of such compounds has therefore to be addressed by scientists in the most reliable and appropriate way. In the first part of this thesis, the procedures currently envisioned for the aquatic mixture risk assessment in European legislations are described. These methodologies are based on the mixture model of concentration addition and the use of the predicted no effect concentrations (PNEC) or effect concentrations (EC50) with assessment factors. These principal approaches were applied to two specific case studies, Lake Geneva and the River Rhône in Switzerland, including a discussion of the outcomes of such applications. These first level assessments showed that the mixture risks for these studied cases exceeded rapidly the critical value. This exceeding is generally due to two or three main substances. The proposed procedures allow therefore the identification of the most problematic substances for which management measures, such as a reduction of the entrance to the aquatic environment, should be envisioned. However, it was also showed that the risk levels associated with mixtures of compounds are not negligible, even without considering these main substances. Indeed, it is the sum of the substances that is problematic, which is more challenging in term of risk management. Moreover, a lack of reliability in the procedures was highlighted, which can lead to contradictory results in terms of risk. This result is linked to the inconsistency in the assessment factors applied in the different methods. In the second part of the thesis, the reliability of the more advanced procedures to predict the mixture effect to communities in the aquatic system were investigated. These established methodologies combine the model of concentration addition (CA) or response addition (RA) with species sensitivity distribution curves (SSD). Indeed, the mixture effect predictions were shown to be consistent only when the mixture models are applied on a single species, and not on several species simultaneously aggregated to SSDs. Hence, A more stringent procedure for mixture risk assessment is proposed, that would be to apply first the CA or RA models to each species separately and, in a second step, to combine the results to build an SSD for a mixture. Unfortunately, this methodology is not applicable in most cases, because it requires large data sets usually not available. Therefore, the differences between the two methodologies were studied with datasets created artificially to characterize the robustness of the traditional approach applying models on species sensitivity distribution. The results showed that the use of CA on SSD directly might lead to underestimations of the mixture concentration affecting 5% or 50% of species, especially when substances present a large standard deviation of the distribution from the sensitivity of the species. The application of RA can lead to over- or underestimates, depending mainly on the slope of the dose-response curves of the individual species. The potential underestimation with RA becomes important when the ratio between the EC50 and the EC10 for the dose-response curve of the species composing the SSD are smaller than 100. However, considering common real cases of ecotoxicity data for substances, the mixture risk calculated by the methodology applying mixture models directly on SSDs remains consistent and would rather slightly overestimate the risk. These results can be used as a theoretical validation of the currently applied methodology. Nevertheless, when assessing the risk of mixtures, one has to keep in mind this source of error with this classical methodology, especially when SSDs present a distribution of the data outside the range determined in this study Finally, in the last part of this thesis, we confronted the mixture effect predictions with biological changes observed in the environment. In this study, long-term monitoring of a European great lake, Lake Geneva, provides the opportunity to assess to what extent the predicted toxicity of herbicide mixtures explains the changes in the composition of the phytoplankton community next to other classical limnology parameters such as nutrients. To reach this goal, the gradient of the mixture toxicity of 14 herbicides regularly detected in the lake was calculated, using concentration addition and response addition models. A decreasing temporal gradient of toxicity was observed from 2004 to 2009. Redundancy analysis and partial redundancy analysis showed that this gradient explains a significant portion of the variation in phytoplankton community composition, even when having removed the effect of all other co-variables. Moreover, some species that were revealed to be influenced positively or negatively, by the decrease of toxicity in the lake over time, showed similar behaviors in mesocosms studies. It could be concluded that the herbicide mixture toxicity is one of the key parameters to explain phytoplankton changes in Lake Geneva. To conclude, different methods exist to predict the risk of mixture in the ecosystems. But their reliability varies depending on the underlying hypotheses. One should therefore carefully consider these hypotheses, as well as the limits of the approaches, before using the results for environmental risk management