996 resultados para Milieu carcéral


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Introduction : Les patients nécessitant une prise en charge prolongée en milieu de soins intensifs et présentant une évolution compliquée, développent une réponse métabolique intense caractérisée généralement par un hypermétabolisme et un catabolisme protéique. La sévérité de leur atteinte pathologique expose ces patients à la malnutrition, due principalement à un apport nutritionnel insuffisant, et entraînant une balance énergétique déficitaire. Dans un nombre important d'unités de soins intensifs la nutrition des patients n'apparaît pas comme un objectif prioritaire de la prise en charge. En menant une étude prospective d'observation afin d'analyser la relation entre la balance énergétique et le pronostic clinique des patients avec séjours prolongés en soins intensifs, nous souhaitions changer cette attitude et démonter l'effet délétère de la malnutrition chez ce type de patient. Méthodes : Sur une période de 2 ans, tous les patients, dont le séjour en soins intensifs fut de 5 jours ou plus, ont été enrôlés. Les besoins en énergie pour chaque patient ont été déterminés soit par calorimétrie indirecte, soit au moyen d'une formule prenant en compte le poids du patient (30 kcal/kg/jour). Les patients ayant bénéficié d'une calorimétrie indirecte ont par ailleurs vérifié la justesse de la formule appliquée. L'âge, le sexe le poids préopératoire, la taille, et le « Body mass index » index de masse corporelle reconnu en milieu clinique ont été relevés. L'énergie délivrée l'était soit sous forme nutritionnelle (administration de nutrition entérale, parentérale ou mixte) soit sous forme non-nutritionnelle (perfusions : soluté glucosé, apport lipidique non nutritionnel). Les données de nutrition (cible théorique, cible prescrite, énergie nutritionnelle, énergie non-nutritionnelle, énergie totale, balance énergétique nutritionnelle, balance énergétique totale), et d'évolution clinique (nombre des jours de ventilation mécanique, nombre d'infections, utilisation des antibiotiques, durée du séjour, complications neurologiques, respiratoires gastro-intestinales, cardiovasculaires, rénales et hépatiques, scores de gravité pour patients en soins intensifs, valeurs hématologiques, sériques, microbiologiques) ont été analysées pour chacun des 669 jours de soins intensifs vécus par un total de 48 patients. Résultats : 48 patients de 57±16 ans dont le séjour a varié entre 5 et 49 jours (motif d'admission : polytraumatisés 10; chirurgie cardiaque 13; insuffisance respiratoire 7; pathologie gastro-intestinale 3; sepsis 3; transplantation 4; autre 8) ont été retenus. Si nous n'avons pu démontrer une relation entre la balance énergétique et plus particulièrement, le déficit énergétique, et la mortalité, il existe une relation hautement significative entre le déficit énergétique et la morbidité, à savoir les complications et les infections, qui prolongent naturellement la durée du séjour. De plus, bien que l'étude ne comporte aucune intervention et que nous ne puissions avancer qu'il existe une relation de cause à effet, l'analyse par régression multiple montre que le facteur pronostic le plus fiable est justement la balance énergétique, au détriment des scores habituellement utilisés en soins intensifs. L'évolution est indépendante tant de l'âge et du sexe, que du status nutritionnel préopératoire. L'étude ne prévoyait pas de récolter des données économiques : nous ne pouvons pas, dès lors, affirmer que l'augmentation des coûts engendrée par un séjour prolongé en unité de soins intensifs est induite par un déficit énergétique, même si le bon sens nous laisse penser qu'un séjour plus court engendre un coût moindre. Cette étude attire aussi l'attention sur l'origine du déficit énergétique : il se creuse au cours de la première semaine en soins intensifs, et pourrait donc être prévenu par une intervention nutritionnelle précoce, alors que les recommandations actuelles préconisent un apport énergétique, sous forme de nutrition artificielle, qu'à partir de 48 heures de séjour aux soins intensifs. Conclusions : L'étude montre que pour les patients de soins intensifs les plus graves, la balance énergétique devrait être considérée comme un objectif important de la prise en charge, nécessitant l'application d'un protocole de nutrition précoce. Enfin comme l'évolution à l'admission des patients est souvent imprévisible, et que le déficit s'installe dès la première semaine, il est légitime de s'interroger sur la nécessité d'appliquer ce protocole à tous les patients de soins intensifs et ceci dès leur admission. Summary Background and aims: Critically ill patients with complicated evolution are frequently hypermetabolic, catabolic, and at risk of underfeeding. The study aimed at assessing the relationship between energy balance and outcome in critically ill patients. Methods: Prospective observational study conducted in consecutive patients staying 5 days in the surgical ICU of a University hospital. Demographic data, time to feeding, route, energy delivery, and outcome were recorded. Energy balance was calculated as energy delivery minus target. Data in means+ SD, linear regressions between energy balance and outcome variables. Results: Forty eight patients aged 57±16 years were investigated; complete data are available in 669 days. Mechanical ventilation lasted 11±8 days, ICU stay 15+9 was days, and 30-days mortality was 38%. Time to feeding was 3.1 ±2.2 days. Enteral nutrition was the most frequent route with 433 days. Mean daily energy delivery was 1090±930 kcal. Combining enteral and parenteral nutrition achieved highest energy delivery. Cumulated energy balance was between -12,600+ 10,520 kcal, and correlated with complications (P<0.001), already after 1 week. Conclusion: Negative energy balances were correlated with increasing number of complications, particularly infections. Energy debt appears as a promising tool for nutritional follow-up, which should be further tested. Delaying initiation of nutritional support exposes the patients to energy deficits that cannot be compensated later on.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Grâce à la prophylaxie antibiotique per-opératoire, à l'amélioration des techniques chirurgicales et au flux laminaire dans les blocs opératoires le taux d'infections postopératoires a pu être diminué dans les interventions chirurgicales orthopédiques. Il stagne néanmoins à environ 0,5- 2% dans les fractures fermées ainsi que dans les interventions orthopédiques électives, et peut monter jusqu'à 30% dans les fractures ouvertes stade III. L'ostéomyelite et la pseudarthrose infectée, qui peuvent en découler, sont responsables de séjours hospitaliers prolongés, engendrent des coûts de traitement élevés, et conduisent souvent à une morbidité substantielle. Le traitement de l'ostéomyelite combine le débridement chirurgical et l'administration d'antibiotiques. Cependant l'administration systémique d'antibiotiques à hautes doses est problématique en raison de leur toxicité systémique et de leur faible pénétration dans les tissus ischémiques et nécrotiques, souvent présents dans l'ostéomyelite. Pour ces raisons, le traitement standard actuel consiste, après débridement chirurgical, en la mise en place de billes de Polyrnéthylmétacrylate (PMMA) imprégnées d'antibiotique, qui fournissent des concentrations locales élevées mais systémiques basses. Malheureusement, ces billes doivent être enlevées une fois l'infection guérie, ce qui nécessite une nouvelle intervention chirurgicale. Des systèmes de libération antibiotique alternatifs devraient non seulement guérir l'infection osseuse, mais également encourager activement la consolidation osseuse et ne pas nécessiter de nouvelle chirurgie pour leur ablation. Nous avons investigué l'activité de billes résorbables chargées en gentamicine contre différents microorganismes (Staphylococcus epidermidis, Staphylococcus aureus, Escherichia coli, Enterococcus faecalis, Candida albicans), des germes communément responsables d'infections osseuses, par microcalorimétrie, une méthode novice basée sur la mesure de la chaleur produite par des microorganismes qui se répliquent dans une culture. Des billes composées essentiellement de sulfate de calcium et chargées en gentamicine ont été incubées dans des ampoules microcalorimétriques contenant différentes concentrations du germe correspondant. Les bouillons de culture avec chaque germe et billes non-chargées ont été utilisés comme contrôle positif, le bouillon de culture avec bille chargée mais sans germe comme contrôle négatif. La production de chaleur provenant de la croissance bactérienne à 37°C a été mesurée pendant 24 heures. Les cultures ne contenant pas de billes chargées en gentamicine ont. produit des pics de chaleur équivalents à la croissance exponentielle du microorganisme correspondant en milieu riche. Par contre, les germes susceptibles à la gentamicine incubés avec les billes chargées ont complètement supprimé leur production de chaleur pendant 24 heures, démontrant ainsi l'activité antibiotique des billes chargées en gentamicine contre ces germes. Les billes résorbables chargées en gentamicine inhibent donc de façon effective la croissance des germes susceptibles sous les conditions in vitro décrites. Des études sur animaux sont maintenant nécessaires pour déterminer la cinétique d'élution et l'effet antimicrobien de la gentamicine sous conditions in vivo. Finalement des études cliniques devront démontrer que l'utilisation de ces billes est effectivement une bonne option thérapeutique dans le traitement des infections osseuses.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les instabilités engendrées par des gradients de densité interviennent dans une variété d'écoulements. Un exemple est celui de la séquestration géologique du dioxyde de carbone en milieux poreux. Ce gaz est injecté à haute pression dans des aquifères salines et profondes. La différence de densité entre la saumure saturée en CO2 dissous et la saumure environnante induit des courants favorables qui le transportent vers les couches géologiques profondes. Les gradients de densité peuvent aussi être la cause du transport indésirable de matières toxiques, ce qui peut éventuellement conduire à la pollution des sols et des eaux. La gamme d'échelles intervenant dans ce type de phénomènes est très large. Elle s'étend de l'échelle poreuse où les phénomènes de croissance des instabilités s'opèrent, jusqu'à l'échelle des aquifères à laquelle interviennent les phénomènes à temps long. Une reproduction fiable de la physique par la simulation numérique demeure donc un défi en raison du caractère multi-échelles aussi bien au niveau spatial et temporel de ces phénomènes. Il requiert donc le développement d'algorithmes performants et l'utilisation d'outils de calculs modernes. En conjugaison avec les méthodes de résolution itératives, les méthodes multi-échelles permettent de résoudre les grands systèmes d'équations algébriques de manière efficace. Ces méthodes ont été introduites comme méthodes d'upscaling et de downscaling pour la simulation d'écoulements en milieux poreux afin de traiter de fortes hétérogénéités du champ de perméabilité. Le principe repose sur l'utilisation parallèle de deux maillages, le premier est choisi en fonction de la résolution du champ de perméabilité (grille fine), alors que le second (grille grossière) est utilisé pour approximer le problème fin à moindre coût. La qualité de la solution multi-échelles peut être améliorée de manière itérative pour empêcher des erreurs trop importantes si le champ de perméabilité est complexe. Les méthodes adaptatives qui restreignent les procédures de mise à jour aux régions à forts gradients permettent de limiter les coûts de calculs additionnels. Dans le cas d'instabilités induites par des gradients de densité, l'échelle des phénomènes varie au cours du temps. En conséquence, des méthodes multi-échelles adaptatives sont requises pour tenir compte de cette dynamique. L'objectif de cette thèse est de développer des algorithmes multi-échelles adaptatifs et efficaces pour la simulation des instabilités induites par des gradients de densité. Pour cela, nous nous basons sur la méthode des volumes finis multi-échelles (MsFV) qui offre l'avantage de résoudre les phénomènes de transport tout en conservant la masse de manière exacte. Dans la première partie, nous pouvons démontrer que les approximations de la méthode MsFV engendrent des phénomènes de digitation non-physiques dont la suppression requiert des opérations de correction itératives. Les coûts de calculs additionnels de ces opérations peuvent toutefois être compensés par des méthodes adaptatives. Nous proposons aussi l'utilisation de la méthode MsFV comme méthode de downscaling: la grille grossière étant utilisée dans les zones où l'écoulement est relativement homogène alors que la grille plus fine est utilisée pour résoudre les forts gradients. Dans la seconde partie, la méthode multi-échelle est étendue à un nombre arbitraire de niveaux. Nous prouvons que la méthode généralisée est performante pour la résolution de grands systèmes d'équations algébriques. Dans la dernière partie, nous focalisons notre étude sur les échelles qui déterminent l'évolution des instabilités engendrées par des gradients de densité. L'identification de la structure locale ainsi que globale de l'écoulement permet de procéder à un upscaling des instabilités à temps long alors que les structures à petite échelle sont conservées lors du déclenchement de l'instabilité. Les résultats présentés dans ce travail permettent d'étendre les connaissances des méthodes MsFV et offrent des formulations multi-échelles efficaces pour la simulation des instabilités engendrées par des gradients de densité. - Density-driven instabilities in porous media are of interest for a wide range of applications, for instance, for geological sequestration of CO2, during which CO2 is injected at high pressure into deep saline aquifers. Due to the density difference between the C02-saturated brine and the surrounding brine, a downward migration of CO2 into deeper regions, where the risk of leakage is reduced, takes place. Similarly, undesired spontaneous mobilization of potentially hazardous substances that might endanger groundwater quality can be triggered by density differences. Over the last years, these effects have been investigated with the help of numerical groundwater models. Major challenges in simulating density-driven instabilities arise from the different scales of interest involved, i.e., the scale at which instabilities are triggered and the aquifer scale over which long-term processes take place. An accurate numerical reproduction is possible, only if the finest scale is captured. For large aquifers, this leads to problems with a large number of unknowns. Advanced numerical methods are required to efficiently solve these problems with today's available computational resources. Beside efficient iterative solvers, multiscale methods are available to solve large numerical systems. Originally, multiscale methods have been developed as upscaling-downscaling techniques to resolve strong permeability contrasts. In this case, two static grids are used: one is chosen with respect to the resolution of the permeability field (fine grid); the other (coarse grid) is used to approximate the fine-scale problem at low computational costs. The quality of the multiscale solution can be iteratively improved to avoid large errors in case of complex permeability structures. Adaptive formulations, which restrict the iterative update to domains with large gradients, enable limiting the additional computational costs of the iterations. In case of density-driven instabilities, additional spatial scales appear which change with time. Flexible adaptive methods are required to account for these emerging dynamic scales. The objective of this work is to develop an adaptive multiscale formulation for the efficient and accurate simulation of density-driven instabilities. We consider the Multiscale Finite-Volume (MsFV) method, which is well suited for simulations including the solution of transport problems as it guarantees a conservative velocity field. In the first part of this thesis, we investigate the applicability of the standard MsFV method to density- driven flow problems. We demonstrate that approximations in MsFV may trigger unphysical fingers and iterative corrections are necessary. Adaptive formulations (e.g., limiting a refined solution to domains with large concentration gradients where fingers form) can be used to balance the extra costs. We also propose to use the MsFV method as downscaling technique: the coarse discretization is used in areas without significant change in the flow field whereas the problem is refined in the zones of interest. This enables accounting for the dynamic change in scales of density-driven instabilities. In the second part of the thesis the MsFV algorithm, which originally employs one coarse level, is extended to an arbitrary number of coarse levels. We prove that this keeps the MsFV method efficient for problems with a large number of unknowns. In the last part of this thesis, we focus on the scales that control the evolution of density fingers. The identification of local and global flow patterns allows a coarse description at late times while conserving fine-scale details during onset stage. Results presented in this work advance the understanding of the Multiscale Finite-Volume method and offer efficient dynamic multiscale formulations to simulate density-driven instabilities. - Les nappes phréatiques caractérisées par des structures poreuses et des fractures très perméables représentent un intérêt particulier pour les hydrogéologues et ingénieurs environnementaux. Dans ces milieux, une large variété d'écoulements peut être observée. Les plus communs sont le transport de contaminants par les eaux souterraines, le transport réactif ou l'écoulement simultané de plusieurs phases non miscibles, comme le pétrole et l'eau. L'échelle qui caractérise ces écoulements est définie par l'interaction de l'hétérogénéité géologique et des processus physiques. Un fluide au repos dans l'espace interstitiel d'un milieu poreux peut être déstabilisé par des gradients de densité. Ils peuvent être induits par des changements locaux de température ou par dissolution d'un composé chimique. Les instabilités engendrées par des gradients de densité revêtent un intérêt particulier puisque qu'elles peuvent éventuellement compromettre la qualité des eaux. Un exemple frappant est la salinisation de l'eau douce dans les nappes phréatiques par pénétration d'eau salée plus dense dans les régions profondes. Dans le cas des écoulements gouvernés par les gradients de densité, les échelles caractéristiques de l'écoulement s'étendent de l'échelle poreuse où les phénomènes de croissance des instabilités s'opèrent, jusqu'à l'échelle des aquifères sur laquelle interviennent les phénomènes à temps long. Etant donné que les investigations in-situ sont pratiquement impossibles, les modèles numériques sont utilisés pour prédire et évaluer les risques liés aux instabilités engendrées par les gradients de densité. Une description correcte de ces phénomènes repose sur la description de toutes les échelles de l'écoulement dont la gamme peut s'étendre sur huit à dix ordres de grandeur dans le cas de grands aquifères. Il en résulte des problèmes numériques de grande taille qui sont très couteux à résoudre. Des schémas numériques sophistiqués sont donc nécessaires pour effectuer des simulations précises d'instabilités hydro-dynamiques à grande échelle. Dans ce travail, nous présentons différentes méthodes numériques qui permettent de simuler efficacement et avec précision les instabilités dues aux gradients de densité. Ces nouvelles méthodes sont basées sur les volumes finis multi-échelles. L'idée est de projeter le problème original à une échelle plus grande où il est moins coûteux à résoudre puis de relever la solution grossière vers l'échelle de départ. Cette technique est particulièrement adaptée pour résoudre des problèmes où une large gamme d'échelle intervient et évolue de manière spatio-temporelle. Ceci permet de réduire les coûts de calculs en limitant la description détaillée du problème aux régions qui contiennent un front de concentration mobile. Les aboutissements sont illustrés par la simulation de phénomènes tels que l'intrusion d'eau salée ou la séquestration de dioxyde de carbone.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ces dernières années, de nombreuses recherches ont mis en évidence les effets toxiques des micropolluants organiques pour les espèces de nos lacs et rivières. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, alors que les organismes sont exposés tous les jours à des milliers de substances en mélange. Or les effets de ces cocktails ne sont pas négligeables. Cette thèse de doctorat s'est ainsi intéressée aux modèles permettant de prédire le risque environnemental de ces cocktails pour le milieu aquatique. Le principal objectif a été d'évaluer le risque écologique des mélanges de substances chimiques mesurées dans le Léman, mais aussi d'apporter un regard critique sur les méthodologies utilisées afin de proposer certaines adaptations pour une meilleure estimation du risque. Dans la première partie de ce travail, le risque des mélanges de pesticides et médicaments pour le Rhône et pour le Léman a été établi en utilisant des approches envisagées notamment dans la législation européenne. Il s'agit d'approches de « screening », c'est-à-dire permettant une évaluation générale du risque des mélanges. Une telle approche permet de mettre en évidence les substances les plus problématiques, c'est-à-dire contribuant le plus à la toxicité du mélange. Dans notre cas, il s'agit essentiellement de 4 pesticides. L'étude met également en évidence que toutes les substances, même en trace infime, contribuent à l'effet du mélange. Cette constatation a des implications en terme de gestion de l'environnement. En effet, ceci implique qu'il faut réduire toutes les sources de polluants, et pas seulement les plus problématiques. Mais l'approche proposée présente également un biais important au niveau conceptuel, ce qui rend son utilisation discutable, en dehors d'un screening, et nécessiterait une adaptation au niveau des facteurs de sécurité employés. Dans une deuxième partie, l'étude s'est portée sur l'utilisation des modèles de mélanges dans le calcul de risque environnemental. En effet, les modèles de mélanges ont été développés et validés espèce par espèce, et non pour une évaluation sur l'écosystème en entier. Leur utilisation devrait donc passer par un calcul par espèce, ce qui est rarement fait dû au manque de données écotoxicologiques à disposition. Le but a été donc de comparer, avec des valeurs générées aléatoirement, le calcul de risque effectué selon une méthode rigoureuse, espèce par espèce, avec celui effectué classiquement où les modèles sont appliqués sur l'ensemble de la communauté sans tenir compte des variations inter-espèces. Les résultats sont dans la majorité des cas similaires, ce qui valide l'approche utilisée traditionnellement. En revanche, ce travail a permis de déterminer certains cas où l'application classique peut conduire à une sous- ou sur-estimation du risque. Enfin, une dernière partie de cette thèse s'est intéressée à l'influence que les cocktails de micropolluants ont pu avoir sur les communautés in situ. Pour ce faire, une approche en deux temps a été adoptée. Tout d'abord la toxicité de quatorze herbicides détectés dans le Léman a été déterminée. Sur la période étudiée, de 2004 à 2009, cette toxicité due aux herbicides a diminué, passant de 4% d'espèces affectées à moins de 1%. Ensuite, la question était de savoir si cette diminution de toxicité avait un impact sur le développement de certaines espèces au sein de la communauté des algues. Pour ce faire, l'utilisation statistique a permis d'isoler d'autres facteurs pouvant avoir une influence sur la flore, comme la température de l'eau ou la présence de phosphates, et ainsi de constater quelles espèces se sont révélées avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps. Fait intéressant, une partie d'entre-elles avait déjà montré des comportements similaires dans des études en mésocosmes. En conclusion, ce travail montre qu'il existe des modèles robustes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques, et qu'ils peuvent être utilisés pour expliquer le rôle des substances dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application. - Depuis plusieurs années, les risques que posent les micropolluants organiques pour le milieu aquatique préoccupent grandement les scientifiques ainsi que notre société. En effet, de nombreuses recherches ont mis en évidence les effets toxiques que peuvent avoir ces substances chimiques sur les espèces de nos lacs et rivières, quand elles se retrouvent exposées à des concentrations aiguës ou chroniques. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, c'est à dire considérées séparément. Actuellement, il en est de même dans les procédures de régulation européennes, concernant la partie évaluation du risque pour l'environnement d'une substance. Or, les organismes sont exposés tous les jours à des milliers de substances en mélange, et les effets de ces "cocktails" ne sont pas négligeables. L'évaluation du risque écologique que pose ces mélanges de substances doit donc être abordé par de la manière la plus appropriée et la plus fiable possible. Dans la première partie de cette thèse, nous nous sommes intéressés aux méthodes actuellement envisagées à être intégrées dans les législations européennes pour l'évaluation du risque des mélanges pour le milieu aquatique. Ces méthodes sont basées sur le modèle d'addition des concentrations, avec l'utilisation des valeurs de concentrations des substances estimées sans effet dans le milieu (PNEC), ou à partir des valeurs des concentrations d'effet (CE50) sur certaines espèces d'un niveau trophique avec la prise en compte de facteurs de sécurité. Nous avons appliqué ces méthodes à deux cas spécifiques, le lac Léman et le Rhône situés en Suisse, et discuté les résultats de ces applications. Ces premières étapes d'évaluation ont montré que le risque des mélanges pour ces cas d'étude atteint rapidement une valeur au dessus d'un seuil critique. Cette valeur atteinte est généralement due à deux ou trois substances principales. Les procédures proposées permettent donc d'identifier les substances les plus problématiques pour lesquelles des mesures de gestion, telles que la réduction de leur entrée dans le milieu aquatique, devraient être envisagées. Cependant, nous avons également constaté que le niveau de risque associé à ces mélanges de substances n'est pas négligeable, même sans tenir compte de ces substances principales. En effet, l'accumulation des substances, même en traces infimes, atteint un seuil critique, ce qui devient plus difficile en terme de gestion du risque. En outre, nous avons souligné un manque de fiabilité dans ces procédures, qui peuvent conduire à des résultats contradictoires en terme de risque. Ceci est lié à l'incompatibilité des facteurs de sécurité utilisés dans les différentes méthodes. Dans la deuxième partie de la thèse, nous avons étudié la fiabilité de méthodes plus avancées dans la prédiction de l'effet des mélanges pour les communautés évoluant dans le système aquatique. Ces méthodes reposent sur le modèle d'addition des concentrations (CA) ou d'addition des réponses (RA) appliqués sur les courbes de distribution de la sensibilité des espèces (SSD) aux substances. En effet, les modèles de mélanges ont été développés et validés pour être appliqués espèce par espèce, et non pas sur plusieurs espèces agrégées simultanément dans les courbes SSD. Nous avons ainsi proposé une procédure plus rigoureuse, pour l'évaluation du risque d'un mélange, qui serait d'appliquer d'abord les modèles CA ou RA à chaque espèce séparément, et, dans une deuxième étape, combiner les résultats afin d'établir une courbe SSD du mélange. Malheureusement, cette méthode n'est pas applicable dans la plupart des cas, car elle nécessite trop de données généralement indisponibles. Par conséquent, nous avons comparé, avec des valeurs générées aléatoirement, le calcul de risque effectué selon cette méthode plus rigoureuse, avec celle effectuée traditionnellement, afin de caractériser la robustesse de cette approche qui consiste à appliquer les modèles de mélange sur les courbes SSD. Nos résultats ont montré que l'utilisation de CA directement sur les SSDs peut conduire à une sous-estimation de la concentration du mélange affectant 5 % ou 50% des espèces, en particulier lorsque les substances présentent un grand écart- type dans leur distribution de la sensibilité des espèces. L'application du modèle RA peut quant à lui conduire à une sur- ou sous-estimations, principalement en fonction de la pente des courbes dose- réponse de chaque espèce composant les SSDs. La sous-estimation avec RA devient potentiellement importante lorsque le rapport entre la EC50 et la EC10 de la courbe dose-réponse des espèces est plus petit que 100. Toutefois, la plupart des substances, selon des cas réels, présentent des données d' écotoxicité qui font que le risque du mélange calculé par la méthode des modèles appliqués directement sur les SSDs reste cohérent et surestimerait plutôt légèrement le risque. Ces résultats valident ainsi l'approche utilisée traditionnellement. Néanmoins, il faut garder à l'esprit cette source d'erreur lorsqu'on procède à une évaluation du risque d'un mélange avec cette méthode traditionnelle, en particulier quand les SSD présentent une distribution des données en dehors des limites déterminées dans cette étude. Enfin, dans la dernière partie de cette thèse, nous avons confronté des prédictions de l'effet de mélange avec des changements biologiques observés dans l'environnement. Dans cette étude, nous avons utilisé des données venant d'un suivi à long terme d'un grand lac européen, le lac Léman, ce qui offrait la possibilité d'évaluer dans quelle mesure la prédiction de la toxicité des mélanges d'herbicide expliquait les changements dans la composition de la communauté phytoplanctonique. Ceci à côté d'autres paramètres classiques de limnologie tels que les nutriments. Pour atteindre cet objectif, nous avons déterminé la toxicité des mélanges sur plusieurs années de 14 herbicides régulièrement détectés dans le lac, en utilisant les modèles CA et RA avec les courbes de distribution de la sensibilité des espèces. Un gradient temporel de toxicité décroissant a pu être constaté de 2004 à 2009. Une analyse de redondance et de redondance partielle, a montré que ce gradient explique une partie significative de la variation de la composition de la communauté phytoplanctonique, même après avoir enlevé l'effet de toutes les autres co-variables. De plus, certaines espèces révélées pour avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps, ont montré des comportements similaires dans des études en mésocosmes. On peut en conclure que la toxicité du mélange herbicide est l'un des paramètres clés pour expliquer les changements de phytoplancton dans le lac Léman. En conclusion, il existe diverses méthodes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques et celui-ci peut jouer un rôle dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application, avant d'utiliser leurs résultats pour la gestion des risques environnementaux. - For several years now, the scientists as well as the society is concerned by the aquatic risk organic micropollutants may pose. Indeed, several researches have shown the toxic effects these substances may induce on organisms living in our lakes or rivers, especially when they are exposed to acute or chronic concentrations. However, most of the studies focused on the toxicity of single compounds, i.e. considered individually. The same also goes in the current European regulations concerning the risk assessment procedures for the environment of these substances. But aquatic organisms are typically exposed every day simultaneously to thousands of organic compounds. The toxic effects resulting of these "cocktails" cannot be neglected. The ecological risk assessment of mixtures of such compounds has therefore to be addressed by scientists in the most reliable and appropriate way. In the first part of this thesis, the procedures currently envisioned for the aquatic mixture risk assessment in European legislations are described. These methodologies are based on the mixture model of concentration addition and the use of the predicted no effect concentrations (PNEC) or effect concentrations (EC50) with assessment factors. These principal approaches were applied to two specific case studies, Lake Geneva and the River Rhône in Switzerland, including a discussion of the outcomes of such applications. These first level assessments showed that the mixture risks for these studied cases exceeded rapidly the critical value. This exceeding is generally due to two or three main substances. The proposed procedures allow therefore the identification of the most problematic substances for which management measures, such as a reduction of the entrance to the aquatic environment, should be envisioned. However, it was also showed that the risk levels associated with mixtures of compounds are not negligible, even without considering these main substances. Indeed, it is the sum of the substances that is problematic, which is more challenging in term of risk management. Moreover, a lack of reliability in the procedures was highlighted, which can lead to contradictory results in terms of risk. This result is linked to the inconsistency in the assessment factors applied in the different methods. In the second part of the thesis, the reliability of the more advanced procedures to predict the mixture effect to communities in the aquatic system were investigated. These established methodologies combine the model of concentration addition (CA) or response addition (RA) with species sensitivity distribution curves (SSD). Indeed, the mixture effect predictions were shown to be consistent only when the mixture models are applied on a single species, and not on several species simultaneously aggregated to SSDs. Hence, A more stringent procedure for mixture risk assessment is proposed, that would be to apply first the CA or RA models to each species separately and, in a second step, to combine the results to build an SSD for a mixture. Unfortunately, this methodology is not applicable in most cases, because it requires large data sets usually not available. Therefore, the differences between the two methodologies were studied with datasets created artificially to characterize the robustness of the traditional approach applying models on species sensitivity distribution. The results showed that the use of CA on SSD directly might lead to underestimations of the mixture concentration affecting 5% or 50% of species, especially when substances present a large standard deviation of the distribution from the sensitivity of the species. The application of RA can lead to over- or underestimates, depending mainly on the slope of the dose-response curves of the individual species. The potential underestimation with RA becomes important when the ratio between the EC50 and the EC10 for the dose-response curve of the species composing the SSD are smaller than 100. However, considering common real cases of ecotoxicity data for substances, the mixture risk calculated by the methodology applying mixture models directly on SSDs remains consistent and would rather slightly overestimate the risk. These results can be used as a theoretical validation of the currently applied methodology. Nevertheless, when assessing the risk of mixtures, one has to keep in mind this source of error with this classical methodology, especially when SSDs present a distribution of the data outside the range determined in this study Finally, in the last part of this thesis, we confronted the mixture effect predictions with biological changes observed in the environment. In this study, long-term monitoring of a European great lake, Lake Geneva, provides the opportunity to assess to what extent the predicted toxicity of herbicide mixtures explains the changes in the composition of the phytoplankton community next to other classical limnology parameters such as nutrients. To reach this goal, the gradient of the mixture toxicity of 14 herbicides regularly detected in the lake was calculated, using concentration addition and response addition models. A decreasing temporal gradient of toxicity was observed from 2004 to 2009. Redundancy analysis and partial redundancy analysis showed that this gradient explains a significant portion of the variation in phytoplankton community composition, even when having removed the effect of all other co-variables. Moreover, some species that were revealed to be influenced positively or negatively, by the decrease of toxicity in the lake over time, showed similar behaviors in mesocosms studies. It could be concluded that the herbicide mixture toxicity is one of the key parameters to explain phytoplankton changes in Lake Geneva. To conclude, different methods exist to predict the risk of mixture in the ecosystems. But their reliability varies depending on the underlying hypotheses. One should therefore carefully consider these hypotheses, as well as the limits of the approaches, before using the results for environmental risk management

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis is a compilation of projects to study sediment processes recharging debris flow channels. These works, conducted during my stay at the University of Lausanne, focus in the geological and morphological implications of torrent catchments to characterize debris supply, a fundamental element to predict debris flows. Other aspects of sediment dynamics are considered, e.g. the coupling headwaters - torrent, as well as the development of a modeling software that simulates sediment transfer in torrent systems. The sediment activity at Manival, an active torrent system of the northern French Alps, was investigated using terrestrial laser scanning and supplemented with geostructural investigations and a survey of sediment transferred in the main torrent. A full year of sediment flux could be observed, which coincided with two debris flows and several bedload transport events. This study revealed that both debris flows generated in the torrent and were preceded in time by recharge of material from the headwaters. Debris production occurred mostly during winter - early spring time and was caused by large slope failures. Sediment transfers were more puzzling, occurring almost exclusively in early spring subordinated to runoffconditions and in autumn during long rainfall. Intense rainstorms in summer did not affect debris storage that seems to rely on the stability of debris deposits. The morpho-geological implication in debris supply was evaluated using DEM and field surveys. A slope angle-based classification of topography could characterize the mode of debris production and transfer. A slope stability analysis derived from the structures in rock mass could assess susceptibility to failure. The modeled rockfall source areas included more than 97% of the recorded events and the sediment budgets appeared to be correlated to the density of potential slope failure. This work showed that the analysis of process-related terrain morphology and of susceptibility to slope failure document the sediment dynamics to quantitatively assess erosion zones leading to debris flow activity. The development of erosional landforms was evaluated by analyzing their geometry with the orientations of potential rock slope failure and with the direction of the maximum joint frequency. Structure in rock mass, but in particular wedge failure and the dominant discontinuities, appear as a first-order control of erosional mechanisms affecting bedrock- dominated catchment. They represent some weaknesses that are exploited primarily by mass wasting processes and erosion, promoting not only the initiation of rock couloirs and gullies, but also their propagation. Incorporating the geological control in geomorphic processes contributes to better understand the landscape evolution of active catchments. A sediment flux algorithm was implemented in a sediment cascade model that discretizes the torrent catchment in channel reaches and individual process-response systems. Each conceptual element includes in simple manner geomorphological and sediment flux information derived from GIS complemented with field mapping. This tool enables to simulate sediment transfers in channels considering evolving debris supply and conveyance, and helps reducing the uncertainty inherent to sediment budget prediction in torrent systems. Cette thèse est un recueil de projets d'études des processus de recharges sédimentaires des chenaux torrentiels. Ces travaux, réalisés lorsque j'étais employé à l'Université de Lausanne, se concentrent sur les implications géologiques et morphologiques des bassins dans l'apport de sédiments, élément fondamental dans la prédiction de laves torrentielles. D'autres aspects de dynamique sédimentaire ont été abordés, p. ex. le couplage torrent - bassin, ainsi qu'un modèle de simulation du transfert sédimentaire en milieu torrentiel. L'activité sédimentaire du Manival, un système torrentiel actif des Alpes françaises, a été étudiée par relevés au laser scanner terrestre et complétée par une étude géostructurale ainsi qu'un suivi du transfert en sédiments du torrent. Une année de flux sédimentaire a pu être observée, coïncidant avec deux laves torrentielles et plusieurs phénomènes de charriages. Cette étude a révélé que les laves s'étaient générées dans le torrent et étaient précédées par une recharge de débris depuis les versants. La production de débris s'est passée principalement en l'hiver - début du printemps, causée par de grandes ruptures de pentes. Le transfert était plus étrange, se produisant presque exclusivement au début du printemps subordonné aux conditions d'écoulement et en automne lors de longues pluies. Les orages d'été n'affectèrent guère les dépôts, qui semblent dépendre de leur stabilité. Les implications morpho-géologiques dans l'apport sédimentaire ont été évaluées à l'aide de MNT et études de terrain. Une classification de la topographie basée sur la pente a permis de charactériser le mode de production et transfert. Une analyse de stabilité de pente à partir des structures de roches a permis d'estimer la susceptibilité à la rupture. Les zones sources modélisées comprennent plus de 97% des chutes de blocs observées et les bilans sédimentaires sont corrélés à la densité de ruptures potentielles. Ce travail d'analyses des morphologies du terrain et de susceptibilité à la rupture documente la dynamique sédimentaire pour l'estimation quantitative des zones érosives induisant l'activité torrentielle. Le développement des formes d'érosion a été évalué par l'analyse de leur géométrie avec celle des ruptures potentielles et avec la direction de la fréquence maximale des joints. Les structures de roches, mais en particulier les dièdres et les discontinuités dominantes, semblent être très influents dans les mécanismes d'érosion affectant les bassins rocheux. Ils représentent des zones de faiblesse exploitées en priorité par les processus de démantèlement et d'érosion, encourageant l'initiation de ravines et couloirs, mais aussi leur propagation. L'incorporation du control géologique dans les processus de surface contribue à une meilleure compréhension de l'évolution topographique de bassins actifs. Un algorithme de flux sédimentaire a été implémenté dans un modèle en cascade, lequel divise le bassin en biefs et en systèmes individuels répondant aux processus. Chaque unité inclut de façon simple les informations géomorpologiques et celles du flux sédimentaire dérivées à partir de SIG et de cartographie de terrain. Cet outil permet la simulation des transferts de masse dans les chenaux, considérants la variabilité de l'apport et son transport, et aide à réduire l'incertitude liée à la prédiction de bilans sédimentaires torrentiels. Ce travail vise très humblement d'éclairer quelques aspects de la dynamique sédimentaire en milieu torrentiel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Suite aux recentes avancées technologiques, les archives d'images digitales ont connu une croissance qualitative et quantitative sans précédent. Malgré les énormes possibilités qu'elles offrent, ces avancées posent de nouvelles questions quant au traitement des masses de données saisies. Cette question est à la base de cette Thèse: les problèmes de traitement d'information digitale à très haute résolution spatiale et/ou spectrale y sont considérés en recourant à des approches d'apprentissage statistique, les méthodes à noyau. Cette Thèse étudie des problèmes de classification d'images, c'est à dire de catégorisation de pixels en un nombre réduit de classes refletant les propriétés spectrales et contextuelles des objets qu'elles représentent. L'accent est mis sur l'efficience des algorithmes, ainsi que sur leur simplicité, de manière à augmenter leur potentiel d'implementation pour les utilisateurs. De plus, le défi de cette Thèse est de rester proche des problèmes concrets des utilisateurs d'images satellite sans pour autant perdre de vue l'intéret des méthodes proposées pour le milieu du machine learning dont elles sont issues. En ce sens, ce travail joue la carte de la transdisciplinarité en maintenant un lien fort entre les deux sciences dans tous les développements proposés. Quatre modèles sont proposés: le premier répond au problème de la haute dimensionalité et de la redondance des données par un modèle optimisant les performances en classification en s'adaptant aux particularités de l'image. Ceci est rendu possible par un système de ranking des variables (les bandes) qui est optimisé en même temps que le modèle de base: ce faisant, seules les variables importantes pour résoudre le problème sont utilisées par le classifieur. Le manque d'information étiquétée et l'incertitude quant à sa pertinence pour le problème sont à la source des deux modèles suivants, basés respectivement sur l'apprentissage actif et les méthodes semi-supervisées: le premier permet d'améliorer la qualité d'un ensemble d'entraînement par interaction directe entre l'utilisateur et la machine, alors que le deuxième utilise les pixels non étiquetés pour améliorer la description des données disponibles et la robustesse du modèle. Enfin, le dernier modèle proposé considère la question plus théorique de la structure entre les outputs: l'intègration de cette source d'information, jusqu'à présent jamais considérée en télédétection, ouvre des nouveaux défis de recherche. Advanced kernel methods for remote sensing image classification Devis Tuia Institut de Géomatique et d'Analyse du Risque September 2009 Abstract The technical developments in recent years have brought the quantity and quality of digital information to an unprecedented level, as enormous archives of satellite images are available to the users. However, even if these advances open more and more possibilities in the use of digital imagery, they also rise several problems of storage and treatment. The latter is considered in this Thesis: the processing of very high spatial and spectral resolution images is treated with approaches based on data-driven algorithms relying on kernel methods. In particular, the problem of image classification, i.e. the categorization of the image's pixels into a reduced number of classes reflecting spectral and contextual properties, is studied through the different models presented. The accent is put on algorithmic efficiency and the simplicity of the approaches proposed, to avoid too complex models that would not be used by users. The major challenge of the Thesis is to remain close to concrete remote sensing problems, without losing the methodological interest from the machine learning viewpoint: in this sense, this work aims at building a bridge between the machine learning and remote sensing communities and all the models proposed have been developed keeping in mind the need for such a synergy. Four models are proposed: first, an adaptive model learning the relevant image features has been proposed to solve the problem of high dimensionality and collinearity of the image features. This model provides automatically an accurate classifier and a ranking of the relevance of the single features. The scarcity and unreliability of labeled. information were the common root of the second and third models proposed: when confronted to such problems, the user can either construct the labeled set iteratively by direct interaction with the machine or use the unlabeled data to increase robustness and quality of the description of data. Both solutions have been explored resulting into two methodological contributions, based respectively on active learning and semisupervised learning. Finally, the more theoretical issue of structured outputs has been considered in the last model, which, by integrating outputs similarity into a model, opens new challenges and opportunities for remote sensing image processing.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans une perspective phénoménologique, le corps, les fonctions vitales, le mouvement déterminent un échange constant entre le sujet et le monde, entre soi et l'autre. La neurobiologie, de son côté, s'intéresse aux transformations biologiques liées à ces expériences, mais sa méthode est fort différente. Les auteurs proposent une réflexion sur la manière dont les découvertes de la neurobiologie interviennent pour mieux "comprendre" la dimension de la rencontre. La relation intersubjective est façonnée non seulement par les structures du fonctionnement mental, par le vécu du sujet, mais encore par la "danse" des postures et le mouvement des corps ; elle est enfin portée par le milieu culturel et social, par la nature de l'environnement. La construction des liens entre le patient et le thérapeute permet à chacun d'eux de cheminer vers un accomplissement de sa propre existence. In a phenomenological perspective, the body, the vital functions, the movements determine a constant exchange between the subject and the world, between self and the others. The neurobiology on its part, is interested in the biological transformations connected to these experiences but its method is quite different. The authors suggest to consider how the neurobiological discoveries help to get a better understanding of the dimension of the encounter. The intersubjective relationship is not only shaped by the structures of the mental functioning, by the subject's experiences, but also by the « dance » of the postures and movements of the body; it is nonetheless influenced by the cultural and social environment, as well as by the type of environment. The build-up of relationships between the therapist and the patient allows both of them to find a way to fulfillment of their own existence.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

ABSTRACT Humic acids (HA) are a component of humic substances (HS), which are found in nearly all soils, sediments, and waters. They play a key role in many, if not most, chemical and physical properties in their environment. Despite the importance of HA, their high complexity makes them a poorly understood system. Therefore, understanding the physicochemical properties and interactions of HA is crucial for determining their fundamental role and obtaining structural details. Cationic surfactants are known to interact electrostatically and hydrophobically with HA. Because they are a very well-known and characterized system, they offer a good choice as molecular probes for studying HA. The objective of this study was to evaluate the interaction between cationic surfactants and HA through isothermal titration calorimetry in a thermodynamic manner, aiming to obtain information about the basic structure of HA, the nature of this interaction, and if HA from different origins show different basic structures. Contrary to what the supramolecular model asserts, HA structure is not loosely held, though it may separate depending on the conditions the HA are subjected to in their milieu. It did not show any division or conformational change when interacting with surfactants. The basic structure of the HA remains virtually the same regardless of the different sources and compositions of these HA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les investigations dans le milieu des accidents de la circulation sont très complexes. Elles nécessitent la mise en oeuvre d'un grand nombre de spécialités venant de domaines très différents. Si certains de ces domaines sont déjà bien exploités, d'autres demeurent encore incomplets et il arrive de nos jours d'observer des lacunes dans la pratique, auxquelles il est primordial de remédier.Ce travail de thèse, intitulé « l'exploitation des traces dans les accidents de la circulation », est issu d'une réflexion interdisciplinaire entre de multiples aspects des sciences forensiques. Il s'agit principalement d'une recherche ayant pour objectif de démontrer les avantages découlant d'une synergie entre les microtraces et l'étude de la dynamique d'un accident. Afin de donner une dimension très opérationnelle à ce travail, l'ensemble des démarches entreprises a été axé de manière à optimiser l'activité des premiers intervenants sur les lieux.Après une partie introductive et ayant trait au projet de recherche, traitant des aspects théoriques de la reconstruction d'une scène d'accident, le lecteur est invité à prendre connaissance de cinq chapitres pratiques, abordés selon la doctrine « du général au particulier ». La première étape de cette partie pratique concerne l'étude de la morphologie des traces. Des séquences d'examens sont proposées pour améliorer l'interprétation des contacts entre véhicules et obstacles impliqués dans un accident. Les mécanismes de transfert des traces de peinture sont ensuite étudiés et une série de tests en laboratoire est pratiquée sur des pièces de carrosseries automobiles. Différents paramètres sont ainsi testés afin de comprendre leur impact sur la fragilité d'un système de peinture. Par la suite, une liste de cas traités (crash-tests et cas réels), apportant des informations intéressantes sur le traitement d'une affaire et permettant de confirmer les résultats obtenus est effectuée. Il s'ensuit un recueil de traces, issu de l'expérience pratique acquise et ayant pour but d'aiguiller la recherche et le prélèvement sur les lieux. Finalement, la problématique d'une banque de données « accident », permettant une gestion optimale des traces récoltées est abordée.---The investigations of traffic accidents are very complex. They require the implementation of a large number of specialties coming from very different domains. If some of these domains are already well exploited, others remain still incomplete and it happens nowadays to observe gaps in the practice, which it is essential to remedy. This thesis, entitled "the exploitation of traces in traffic accidents", arises from a multidisciplinary reflection between the different aspects of forensic science. It is primarily a research aimed to demonstrate the benefits of synergy between microtrace evidence and accidents dynamics. To give a very operational dimension to this work, all the undertaken initiatives were centred so as to optimise the activity of the first participants on the crime scene.After an introductory part treating theoretical aspects of the reconstruction of an accident scene the reader is invited to get acquainted with five practical chapters, according to the doctrine "from general to particular". For the first stage of this practical part, the problem of the morphology of traces is approached and sequences of examinations are proposed to improve the interpretation of the contacts between vehicles and obstacles involved in an accident. Afterwards, the mechanisms of transfer of traces of paint are studied and a series of tests in laboratory is practised on pieces of automobile bodies. Various parameters are thus tested to understand their impact on the fragility of a system of paint. It follows that a list of treated cases (crash-tests and real cases) is created, allowing to bring interesting information on the treatment of a case and confirm the obtained results. Then, this work goes on with a collection of traces, stemming from the acquired experience that aims to steer the research and the taking of evidence on scenes. Finally, the practical part of this thesis ends with the problem of a database « accident », allowing an optimal management of the collected traces.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Summary The present thesis work focused on the ecology of benthic invertebrates in the proglacial floodplain of the Rhone in the Swiss Alps. The main glacial Rhone River and a smaller glacial tributary, the Mutt River, joined and entered a braiding multi-thread area. A first part concentrated on the disruption of the longitudinal patterns of environmental conditions and benthic invertebrate fauna in the Rhone by its tributary the Mutt. The Mutt had less harsh environmental conditions, higher taxonomic richness and more abundant zoobenthos compared to the Rhone upstream of the confluence. Although the habitat conditions in the main stream were little modified by the tributary, the fauna was richer and more diverse below the confluence. Colonisation from the Mutt induced the occurrence of faunal elements uncommon of glacial streams in the upper Rhone, where water temperature remains below 4°C. Although the glacial Rhone dominated the system with regard to hydrology and certain environmental conditions, the Mutt tributary has to be seen as the faunal driver of the system. The second part of the study concerned the spatio-temporal differentiation of the habitats and the benthic communities along and across the flood plain. No longitudinal differentiation was found. The spatial transversal differentiation of three habitat types with different environmental characteristics was successfully reflected in the spatial variability of benthic assemblages. This typology separated marginal sites of the flood plain, left bank sites under the influence of the Mutt, and the right bank sites under the influence of the Rh6ne. Faunistic spatial differences were emphasized by the quantitative structure of the fauna, richness, abundances and Simpson index of diversity. Seasonal environmental variability was positively related with Simpson index of diversity and the total richness per site. Low flow conditions were the most favourable season for the fauna and November was characterized by low spatial environmental heterogeneity, high spatial heterogeneity of faunal assemblage, maximum taxonomic richness, a particular taxonomic composition, highest abundances, as well as the highest primary food resources. The third part studied the egg development of three species of Ephemeroptera in the laboratory at 1.5 to 7°C and the ecological implications in the field. Species revealed very contrasting development strategies. Baetis alpinus has a synchronous and efficient egg development, which is faster in warmer habitats, enabling it to exploit short periods of favourable conditions in the floodplain. Ecdyonurus picteti has a very long development time slightly decreasing in warmer conditions. The high degree of individual variation suggests a genetic determination of the degree-days demand. Combined with the glacial local conditions, this strategy leads to an extreme delay of hatching and allows it to develop in very unpredictable habitats. Rhithrogena nivata is the second cold adapted species in Ephemeroptera. The incubation duration is long and success largely depends on the timing of hatching and the discharge conditions. This species is able to exploit extremely unstable and cold habitats where other species are limited by low water temperatures. The fourth part dealt with larval development in different habitats of the floodplain. Addition of data on egg development allowed the description of the life histories of the species from oviposition until emergence. Rhithrogena nivata and loyolaea generally have a two-year development, with the first winter passed as eggs and the second one as larvae. Development of Ecdyonurus picteti is difficult to document but appears to be efficient in a harsh and unpredictable environment. Baetis alpinus was studied separately in four habitats of the floodplain system with contrasting thermal regimes. Differences in success and duration of larval development and in growth rates are emphasised. Subvention mechanisms between habitats by migration of young or grown larvae were demonstrated. Development success and persistence of the populations in the system were thus increased. Emergence was synchronised to the detriment of the optimisation of the adult's size and fecundity. These very different development strategies induce a spatial and temporal distribution in the use of food resources and ecological niches. The last part of this work aimed at the synthesis of the characteristics and the ecological features of three distinct compartments of the system that are the upper Rhone, the Mutt and the floodplain. Their particular role as well as their inter-dependence concerning the structure and the dynamics of the benthic communities was emphasised. Résumé Ce travail de thèse est consacré à l'écologie des invertébrés benthiques dans la zone alluviale proglaciaire du Rhône dans les Alpes suisses. Le Rhône, torrent glaciaire principal, reçoit les eaux de la Mutt, affluent glaciaire secondaire, puis pénètre dans une zone de tressage formée de plusieurs bras. La première partie de l'étude se concentre sur la disruption par la Mutt des processus longitudinaux, tant environnementaux que faunistiques, existants dans le Rhône. Les conditions environnementales régnant dans la Mutt sont moins rudes, la richesse taxonomique plus élevée et le zoobenthos plus abondant que dans le Rhône en amont de la confluence. Bien que les conditions environnementales dans le torrent principal soient peu modifiées par l'affluent, la faune s'avère être plus riche et plus diversifiée en aval de la confluence. La colonisation depuis la Mutt permet l'occurrence de taxons inhabituels dans le Rhône en amont de la confluence, où la température de l'eau se maintient en dessous de 4°C. Bien que le Rhône, torrent glaciaire principal, domine le système du point de vu de l'hydrologie et de certains paramètres environnementaux, l'affluent Mutt doit être considéré comme l'élément structurant la faune dans le système. La deuxième partie concerne la différentiation spatiale et temporelle des habitats et des communautés benthiques à travers la plaine alluviale. Aucune différentiation longitudinale n'a été mise en évidence. La différentiation transversale de trois types d'habitats sur la base des caractéristiques environnementales a été confirmée par la variabilité spatiale de la faune. Cette typologie sépare les sites marginaux de la plaine alluviale, ceux sous l'influence de la Mutt (en rive gauche) et ceux sous l'influence du Rhône amont (en rive droite). Les différences spatiales de la faune sont mises en évidence par la structure quantitative de la faune, la richesse, les abondances et l'indice de diversité de Simpson. La variabilité saisonnière du milieu est positivement liée avec l'indice de diversité de Simpson et la richesse totale par site. L'étiage correspond à la période la plus favorable pour la faune et novembre réunit des conditions de faible hétérogénéité spatiale du milieu, de forte hétérogénéité spatiale de la faune, une richesse taxonomique maximale, une composition faunistique particulière, les abondances ainsi que les ressources primaires les plus élevées. La troisième partie est consacrée à l'étude du développement des oeufs de trois espèces d'Ephémères au laboratoire à des températures de 1.5 à 7°C, ainsi qu'aux implications écologiques sur le terrain. Ces espèces présentent des stratégies de développement très contrastées. Baetis alpinus a un développement synchrone et efficace, plus rapide en milieu plus chaud et lui permettant d'exploiter les courtes périodes de conditions favorables. Ecdyonurus picteti présente une durée de développement très longue, diminuant légèrement dans des conditions plus chaudes. L'importante variation interindividuelle suggère un déterminisme génétique de la durée de développement. Cette stratégie, associée aux conditions locales, conduit à un décalage extrême des éclosions et permet à l'espèce de se développer dans des habitats imprévisibles. Rhithrogena nivata est la seconde espèce d'Ephémères présentant une adaptation au froid. L'incubation des oeufs est longue et son succès dépend de la période des éclosions et des conditions hydrologiques. Cette espèce est capable d'exploiter des habitats extrêmement instables et froids, où la température est facteur limitant pour d'autres espèces. La quatrième partie traite du développement larvaire dans différents habitats de la plaine alluviale. Le développement complet est décrit pour les espèces étudiées de la ponte jusqu'à l'émergence. Rhithrogena nivata et loyolaea atteignent généralement le stade adulte en deux ans, le premier hiver étant passé sous forme d'oeuf et le second sous forme de larve. Le développement de Ecdyonurus picteti est difficile à documenter, mais s'avère cependant efficace dans un environnement rude et imprévisible. Baetis alpinus a été étudié séparément dans quatre habitats de la plaine ayant des régimes thermiques contrastés. La réussite et la durée du développement embryonnaire ainsi que les taux de croissance y sont variables. Des mécanismes de subvention entre habitats sont possibles par la migration de larves juvéniles ou plus développées, augmentant ainsi la réussite du développement et le maintien des populations dans le système. L'émergence devient synchrone, au détriment de l'optimisation de la taille et de la fécondité des adultes. Ces stratégies très différentes induisent une distribution spatiale et temporelle dans l'usage des ressources et des niches écologiques. La dernière partie synthétise les caractéristiques écologiques des trois compartiments du système que sont le Rhône amont, la Mutt et la zone alluviale. Leurs rôles particuliers et leurs interdépendances du point de vue de la structure et de la dynamique des communautés benthiques sont mis en avant.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUME DE LA THESE Le but de cette thèse est d'analyser la réforme générale de l'Etat au Cameroun et au Gabon par les institutions de Bretton Woods sur une période de vingt ans (1987-2007). Pour ce faire, mon travail consiste à étudier le rôle majeur joué par les différentes mesures économiques impulsées dans les pays par le Fonds Monétaire International (FMI) et la Banque Mondiale. Il s'agit de voir si les différentes réformes d'ajustement que ces institutions ont imposé au Cameroun et au Gabon ont produit des effets positifs en vue de solution la crise économique qui s'y installait durablement et remettre ces Etats sur le sentier de la croissance et du développement. L'avènement de la crise économique qui sévissait dans les pays au milieu des années 1980 montrait que le modèle développementaliste expérimenté par ces Etats n'avait expérimenté contribué qu'à provoquer la paralysie de l'appareil de production. Les causes profondes résidaient dans l'omniprésence de l'Etat qui privilégiait une logique administrative au dépend de celle de production au point de nuire gravement aux politiques interventionnistes étatiques. A cela, s'ajoutaient d'autres facteurs endogènes et exogènes aux Etats comme la mauvaise gestion couplée à la forte corruption et au clientélisme politique, la contrebande et le dumping, l'effritement du secteur agricole dû au vieillissement des plantations et à la sous-mécanisation, l'explosion démographique, la détérioration des termes de l'échange, le chômage endémique et galopant, etc. En ayant recours aux réformes d'ajustement structurel du FMI et de la Banque Mondiale, les gouvernements camerounais et gabonais entendaient lutter contre les rigidités institutionnelles et les distorsions structurelles qui empêchaient leurs économies de répondre aux signaux du marché et d'accroître l'offre d'une part. Et, d'autre part, les réformes d'ajustement devaient permettre de renforcer la concurrence des produits sur les marchés, accroître les capacités d'adaptation des marchés de facteurs et améliorer l'efficacité et l'efficience du secteur public. Mais avant d'analyser les réformes d'ajustement dans les pays j'ai d'abord présenté dans une première partie, l'évolution sociopolitique et économique des deux pays. Cette partie donne à l'analyse une profondeur historique indispensable et rend compte de l'évolution des politiques sectorielles des Etats marquée par une phase de croissance (1960-1984), puis par une phase de décroissance ou de crise qui commence à partir de 1985. La seconde partie met en évidence les politiques d'ajustement structurelle principalement axées sur la régulation monétaire, financière et budgétaire, la réforme de la fonction publique, la réforme agricole, le désengagement de l'Etat du secteur productif national et les privatisations. Je termine cette seconde partie par un bilan contrasté que je dresse de l'impact de ces réformes dans les économies camerounaises et gabonaises. La troisième partie met en évidence les nouvelles orientations stratégiques des institutions de Bretton Woods en partant de l'agenda politique des réformes au Cameroun et au Gabon. Elle fait intervenir une batterie de réformes portant sur l'initiative Pays Pauvres Très Endettés (PPTE), les Documents de Stratégie pour la Réduction de la Pauvreté (DSRP), l'Evaluation Politique et Institutionnelle du Pays (EPIP) et la «Bonne Gouvernance». Cette thèse s'achève par une conclusion exhaustive mettant en évidence les insuffisances des modèles théoriques et conceptuels fondant l'ajustement structurel et la remise en cause des nouvelles stratégies de lutte contre la pauvreté impulsées par le FMI et la Banque Mondiale dans les pays d'une part. D'autre part, j'observe une faiblesse institutionnelle de l'Etat dans ces pays qui se résume à la mauvaise gouvernance ; à l'absence d'un cadre et des outils appropriés pour la gestion économique et stratégique du développement à long terme ; à l'impunité généralisée et à l'inefficacité des mesures de lutte contre la pauvreté ; à l'absence d'un Etat de droit et à l'autoritarisme des régimes en place.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Circulating monocytes, as dendritic cell and macrophage precursors, exhibit several functions usually associated with antigen-presenting cells, such as phagocytosis and presence of endosomal/lysosomal degradative compartments particularly enriched in Lamp-1, MHC class II molecules, and other proteins related to antigen processing and MHC class II loading [MHC class II compartments (MIICs)]. Ultrastructural analysis of these organelles indicates that, differently from the multivesicular bodies present in dendritic cells, in monocytes the MIICs are characterized by a single perimetral membrane surrounding an electron-dense core. Analysis of their content reveals enrichment in myeloperoxidase, an enzyme classically associated with azurophilic granules in granulocytes and mast cell secretory lysosomes. Elevation in intracellular free calcium levels in monocytes induced secretion of beta-hexosaminidase, cathepsins, and myeloperoxidase in the extracellular milieu; surface up-regulation of MHC class II molecules; and appearance of lysosomal resident proteins. The Ca(2+)-regulated surface transport mechanism of MHC class II molecules observed in monocytes is different from the tubulovesicular organization of the multivesicular bodies previously reported in dendritic cells and macrophages. Hence, in monocytes, MHC class II-enriched organelles combine degradative functions typical of lysosomes and regulated secretion typical of secretory lysosomes. More important, Ca(2+)-mediated up-regulation of surface MHC class II molecules is accompanied by extracellular release of lysosomal resident enzymes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé La Na,K-ATPase est une protéine transmembranaire, présente dans toutes les cellules de mammifères et indispensable à la viabilité cellulaire. Elle permet le maintien des gradients sodiques et potassiques à l'origine du potentiel membranaire en transportant 3 Na+ en dehors de la cellule contre 2 K+, grâce à l'énergie fournie par l'hydrolyse d'une molécule d'ATP. Le potentiel membranaire est indispensable au maintien de l'excitabilité cellulaire et à la transmission de l'influx nerveux. Il semblerait que la Na,K-ATPase soit liée à l'hypertension et à certains troubles neurologiques comme la Migraine Familiale Hémiplégique (1VIFH). La MFH est une forme de migraine avec aura, qui se caractérise par une hémiparésie. Cette forme de migraine est très rare. Elle se transmet génétiquement sur un mode autosomique dominant. Plusieurs mutations localisées dans le gène de la Na,K-ATPase ont été identifiées durant ces 3 dernières années. C'est la première fois qu'une maladie génétique est associée au gène de la Na,K-ATPase. La compréhension du fonctionnement de cette protéine peut donner des informations sur les mécanismes conduisant à ces pathologies. On sait que la fonction d'une protéine est liée à sa structure. L'étude de sa fonction nécessite donc l'étude de sa structure. Alors que la structure de la SERCA a été déterminée à haute résolution, par cristallographie, celle de la Na,K-ATPase ne l'est toujours pas. Mais ces 2 ATPases présentent une telle homologie qu'un modèle de la Na,K-ATPase a pu être élaboré à partir de la structure de la SERCA. Les objectifs de cette étude sont d'une part, de comprendre le contrôle de l'accessibilité du K+ extracellulaire àses sites de liaison. Pour cela, nous avons ciblé cette étude sur la 2ìème et la 31eme boucle extracellulaire, qui relient respectivement les segments transmembranaires (STM) 3-4 et 5-6. Le choix s'est porté sur ces 2 boucles car elles bordent le canal des cations formés des 4ième' Sième et 6'ème hélices. D'autre part, nous avons également essayer de comprendre les effets des mutations, liées à la Migraine Familiale Hémiplégique de type 2 (MFH2), sur la fonctionnalité de la Na,K-ATPase. Alors que les STM et les domaines cytoplasmiques sont relativement proches entre la Na,KATPase et la SERCA, les boucles extracellulaires présentent des différences. Le modèle n'est donc pas une approche fiable pour déterminer la structure et la fonction des régions extracellulaires. Nous avons alors utilisé une approche fonctionnelle faisant appel à la mutation dirigée puis à l'étude de l'activité fonctionnelle de la Na,K ATPase par électrophysiologie sur des ovocytes de Xenopus. En conclusion, nous pouvons dire que la troisième boucle extracellulaire participerait à la structure de la voie d'entrée des cations et que la deuxième boucle extracellulaire semble impliquée dans le contrôle de l'accessibilité des ions K+àses sites de liaison. Concernant les mutations associées à la MFH2, nos résultats ont montré une forte diminution de l'activité fonctionnelle de la pompe Na,K, inférieure aux conditions physiologiques de fonctionnement, et pour une des mutations nous avons observés une diminution de l'affmité apparente au K+ externe. Nous poumons faire l'hypothèse que l'origine pathologique de la migraine est liée à une diminution de l'activité de la pompe à Na+. Summary The Na,K-ATPase is a transmembrane protein, present in all mammalian cells and is necessary for the viability of the cells. It maintains the gradients of Na+ and K+ involved in the membrane potential, by transporting 3Na+ out the cell, and 2K+ into the cell, using the energy providing from one ATP molecule hydrolysis. The membrane potential is necessary for the cell excitability and for the transmission of the nervous signal. Some evidence show that Na,K-ATPase is involved in hypertension and neurological disorders like the Familial Hemiplegic Migraine (FHM). La FHM is a rare form of migraine characterised by aura and hemiparesis and an autosomal dominant transmission. Several mutations linked to the Na,KATPase gene have been identified during these 3 last years. It's the first genetic disorder associated with the Na,K-ATPase gene. Understand the function of this protein is important to elucidate the mechanisms implicated in these pathologies. The function of a protein is linked with its structure. Thus, to know the function of a protein, we need to know its structure. While the Ca-ATPase (SERCA) has been crystallised with a high resolution, the structure of the Na,K-ATPase is not known. Because of the great homology between these 2 ATPases, a model of the Na,K-ATPase was realised by comparing with the structure of the SERCA. The aim of this study is on one side, understand the control of the extracellular K+ accessibility to their binding sites. Because of theirs closed proximity with the cation pathway, located between the 4th, 5th and 6th helices, we have targeted this study on the 2nd and the 3rd extracellular loops linking respectively the transmembrane segment (TMS) 3 and 4, and the TMS 5 and 6. And on the other side, we have tried to understand the functional effects of mutations linked with the Familial Hemiplegic Migraine Type 2 (FHM2). In contrast with the transmembrane segments and the cytoplasmic domains, the extracellular loops show lots of difference between Na,K-ATPase and SERCA, the model is not a good approach to know the structure and the function of the extracellular loops. Thus, we have used a functional approach consisting in directed mutagenesis and the study of the functional activity of the Na,K-ATPase by electrophysiological techniques with Xenopus oocytes. In conclusion, we have demonstrated that the third extracellular loop could participate in the structure of the entry of the cations pathway and that the second extracellular loop could control the K+ accessibility to their binding sites. Concerning the mutations associated with the FHM2, our results showed a strong decrease in the functional activity of the Na,K-pump under physiological conditions and for one of mutations, induce a decrease in the apparent external K+ affinity. We could make the hypothesis that the pathogenesis of migraine is related to the decrease in Na,K-pump activity. Résumé au large publique De la même manière que l'assemblage des mots forme des phrases et que l'assemblage des phrases forme des histoires, l'assemblage des cellules forme des organes et l'ensemble des organes constitue les êtres vivants. La fonction d'une cellule dans le corps humain peut se rapprocher de celle d'une usine hydroélectrique. La matière première apportée est l'eau, l'usine électrique va ensuite convertir l'eau en énergie hydraulique pour fournir de l'électricité. Le fonctionnement de base d'une cellule suit le même processus. La cellule a besoin de matières premières (oxygène, nutriments, eau...) pour produire une énergie sous forme chimique, l'ATP. Cette énergie est utilisée par exemple pour contracter les muscles et permet donc à l'individu de se déplacer. Morphologiquement la cellule est une sorte de petit sac rempli de liquide (milieu intracellulaire) baignant elle-même dans le liquide (milieu extracellulaire) composant le corps humain (un adulte est constitué environ de 65 % d'eau). La composition du milieu intracellulaire est différente de celle du milieu extracellulaire. Cette différence doit être maintenue pour que l'organisme fonctionne correctement. Une des différences majeures est la quantité de sodium. En effet il y a beaucoup plus de sodium à l'extérieur qu'à l'intérieur de la cellule. Bien que l'intérieur de la cellule soit isolé de l'extérieur par une membrane, le sodium arrive à passer à travers cette membrane, ce qui a tendance à augmenter la quantité de sodium dans la cellule et donc à diminuer sa différence de concentration entre le milieu extracellulaire et le milieu intracellulaire. Mais dans les membranes, il existe des pompes qui tournent et dont le rôle est de rejeter le sodium de la cellule. Ces pompes sont des protéines connues sous le nom de pompe à sodium ou Na,K-ATPase. On lui attribue le nom de Na,K-ATPase car en réalité elle rejette du sodium (Na) et en échange elle fait entrer dans la cellule du potassium (K), et pour fonctionner elle a besoin d'énergie (ATP). Lorsque les pompes à sodium ne fonctionnent pas bien, cela peut conduire à des maladies. En effet la Migraine Familiale Hémiplégique de type 2, est une migraine très rare qui se caractérise par l'apparition de la paralysie de la moitié d'un corps avant l'apparition du mal de tête. C'est une maladie génétique (altération qui modifie la fonction d'une protéine) qui touche la pompe à sodium située dans le cerveau. On a découvert que certaines altérations (mutations) empêchent les pompes à sodium de fonctionner correctement. On pense alors que le développement des migraines est en partie dû au fait que ces pompes fonctionnent moins bien. Il est important de bien connaître la fonction de ces pompes car cela permet de comprendre des mécanismes pouvant conduire à certaines maladies, comme les migraines. En biologie, la fonction d'une protéine est étudiée à travers sa structure. C'est pourquoi l'objectif de cette thèse a été d'étudier la structure de la Na,K-ATPase afin de mieux comprendre son mécanisme d'action.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

ABSTRACT In S. cerevisiae, the protein phosphatase Cdc14pwt is essential far mitotic exit through its contribution to reducing mitotic CDK activity. But Cdc14pwt also acts as a mare general temporal coordinator of mid and late mitotic events by controlling the partitioning of DNA, microtubule stability and cytokinesis. Cdc14pwt orthologs are well conserved from yeasts to humans, and sequence comparison revealed the presence of three domains, A, B and C, of which A and B form the catalytic domain. Cdc14pwt orthologs are regulated (in part) through cell cycle dependent changes in their localization. Some of them are thought to be kept inactive by sequestration in the nucleolus during interphase. This is the case for flp1pwt, the single identified Cdc14pwt ortholog in the fission yeast S. pombe. In early mitosis, flp1pwt leaves the nucleolus and localizes to the kinetochores, the contractile ring and the mitotic spindle, suggesting that it has multiple substrates and regulates many mitotic processes. flp1D cells show a high chromosome loss rate and septation defects, suggesting a role for flp1wt in the fidelity of chromosome transmission and cytokinesis. The aim of this study is to characterize the mechanisms underlying flp1pwt functions and the control of its activity. A structure-function analysis has revealed that the presence of both A and B domains is required for biological function and for proper flp1pwt mitotic localization. In contrast, the C domain of flp1pwt is responsible for its proper nucleolar localization in G2/interphase. My data suggest that dephosphorylation of substrates by flp1pwt is not necessary for any changes in localization of flp1pwt except that at the medial ring. In that particular case, the catalytic activity of flp1pwt is required for efficient localization, therefore revealing an additional level of regulation. All the functions of flp1pwt assayed to date require its catalytic activity, emphasizing the importance of further identification of its substrates. As described for other orthologs, the capability of selfinteraction and phosphorylation status might help to control flp1pwt activity. My data suggest that flp1pwt forms oligomers in vivo and that phosphorylation is not essential far localization changes of the protein. In addition, the hypophosphorylated form of flp1pwt might be specifically involved in the promotion of cytokinesis. The results of this study suggest that multiple modes of regulation including localization, selfassociation and phosphorylation allow a fine-tuning regulation of flp1pwt phosphatase activity, and more generally that of Cdc14pwt family of phosphatases. RESUME Chez la levure S. cerevisiae, la protéine phosphatase Cdc14pwt est essentielle pour la sortie de mitose du fait de sa contribution dans la réduction d'activité des CDK mitotiques. Comme elle contrôle également le partage de l'ADN, la stabilité des microtubules et la cytokinèse, Cdc14pwt est en fait considérée comme un coordinateur temporel général des évènements de milieu et de fin de mitose. Les orthologues de Cdc14pwt sont bien conservés, des levures jusqu'à l'espèce humaine. Des comparaisons de séquence ont révélé la présence de trois domaines A, B et C, les deux premiers constituant le domaine catalytique. Ils sont régulés (en partie) via des changements dans leur localisation, eux-mêmes dépendants du cycle cellulaire. Plusieurs de ces orthologues sont supposés inactivés par séquestration dans le nucléole en interphase, ce qui est le cas de flp1pwt le seul orthologue de Cdc14pwt identifié chez la levure fissipare S, pombe. En début de mitose, flp1pwt quitte le nucléole et localise au niveau des kinetochores, de l'anneau contractile d'actine et du fuseau mitotique, ce qui laisse supposer de multiples substrats et fonctions. Comme les cellules délétées pour le gène flp1wt présentent un taux élevé de perte de chromosome et des défauts de septation, flp1pwt semble jouer un rôle dans la fidélité de la transmission du matériel génétique et la cytokinèse. Le but de cette étude est de caractériser les mécanismes impliqués dans les fonctions assurées par flp1pwt d'une part, et dans le contrôle de son activité d'autre part. Une analyse structure-fonction a révélé que la présence simultanée des deux domaines A et B est requise pour la fonction biologique de flp1pwt et sa localisation correcte pendant la mitose. Par contre, le domaine C de flp1pwt confère une localisation nucléolaire adéquate en G2/interphase. Mes données suggèrent que la déphosphorylation de substrats par flp1pwt est dispensable pour sa localisation correcte excepté celle à l'anneau médian, qui requiert dans ce cas, l'activité catalytique de flp1pwt, révélant ainsi un niveau de régulation supplémentaire. Toutes les fonctions de flp1 pwt testées jusqu'à présent nécessitent également son activité catalytique, ce qui accentue l'importance de l'identification future de ses substrats. Comme cela a déjà été décrit pour d'autres orthologues, la capacité d'auto-intéraction et le niveau de phosphorylation pourraient contrôler l'activité de flp1pwt. En effet, mes données suggèrent que flp1pwt forme des oligomères in vivo et que la phosphorylation n'est pas essentielle pour les changements de localisation observés pour la protéine. De plus, la forme hypophosphorylée de flp1pwt pourrait être spécifiquement impliquée dans la promotion de la cytokinèse. De multiples modes de régulation incluant la localisation, l'auto-association et la phosphorylation semblent permettre un contrôle fin et subtil de l'activité de la phosphatase flp1pwt, et plus généralement celle des protéines de la famille de Cdc14pwt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les deux premières parties de cet article parues précédemment ont présenté la méthodologie ainsi que les premiers éléments du bilan réalisé sur la période allant de 2009 à 2012 de la veille bibliographique sur la surveillance biologique de l'exposition aux produits chimiques en milieu de travail (SBEPC MT) mise en place par un réseau francophone multidisciplinaire.