54 resultados para aggregated multicast
Resumo:
Drug development has improved over recent decades, with refinements in analytical techniques, population pharmacokinetic-pharmacodynamic (PK-PD) modelling and simulation, and new biomarkers of efficacy and tolerability. Yet this progress has not yielded improvements in individualization of treatment and monitoring, owing to various obstacles: monitoring is complex and demanding, many monitoring procedures have been instituted without critical assessment of the underlying evidence and rationale, controlled clinical trials are sparse, monitoring procedures are poorly validated and both drug manufacturers and regulatory authorities take insufficient account of the importance of monitoring. Drug concentration and effect data should be increasingly collected, analyzed, aggregated and disseminated in forms suitable for prescribers, along with efficient monitoring tools and evidence-based recommendations regarding their best use. PK-PD observations should be collected for both novel and established critical drugs and applied to observational data, in order to establish whether monitoring would be suitable. Methods for aggregating PK-PD data in systematic reviews should be devised. Observational and intervention studies to evaluate monitoring procedures are needed. Miniaturized monitoring tests for delivery at the point of care should be developed and harnessed to closed-loop regulated drug delivery systems. Intelligent devices would enable unprecedented precision in the application of critical treatments, i.e. those with life-saving efficacy, narrow therapeutic margins and high interpatient variability. Pharmaceutical companies, regulatory agencies and academic clinical pharmacologists share the responsibility of leading such developments, in order to ensure that patients obtain the greatest benefit and suffer the least harm from their medicines.
Resumo:
A mobile ad hoc network (MANET) is a decentralized and infrastructure-less network. This thesis aims to provide support at the system-level for developers of applications or protocols in such networks. To do this, we propose contributions in both the algorithmic realm and in the practical realm. In the algorithmic realm, we contribute to the field by proposing different context-aware broadcast and multicast algorithms in MANETs, namely six-shot broadcast, six-shot multicast, PLAN-B and ageneric algorithmic approach to optimize the power consumption of existing algorithms. For each algorithm we propose, we compare it to existing algorithms that are either probabilistic or context-aware, and then we evaluate their performance based on simulations. We demonstrate that in some cases, context-aware information, such as location or signal-strength, can improve the effciency. In the practical realm, we propose a testbed framework, namely ManetLab, to implement and to deploy MANET-specific protocols, and to evaluate their performance. This testbed framework aims to increase the accuracy of performance evaluation compared to simulations, while keeping the ease of use offered by the simulators to reproduce a performance evaluation. By evaluating the performance of different probabilistic algorithms with ManetLab, we observe that both simulations and testbeds should be used in a complementary way. In addition to the above original contributions, we also provide two surveys about system-level support for ad hoc communications in order to establish a state of the art. The first is about existing broadcast algorithms and the second is about existing middleware solutions and the way they deal with privacy and especially with location privacy. - Un réseau mobile ad hoc (MANET) est un réseau avec une architecture décentralisée et sans infrastructure. Cette thèse vise à fournir un support adéquat, au niveau système, aux développeurs d'applications ou de protocoles dans de tels réseaux. Dans ce but, nous proposons des contributions à la fois dans le domaine de l'algorithmique et dans celui de la pratique. Nous contribuons au domaine algorithmique en proposant différents algorithmes de diffusion dans les MANETs, algorithmes qui sont sensibles au contexte, à savoir six-shot broadcast,six-shot multicast, PLAN-B ainsi qu'une approche générique permettant d'optimiser la consommation d'énergie de ces algorithmes. Pour chaque algorithme que nous proposons, nous le comparons à des algorithmes existants qui sont soit probabilistes, soit sensibles au contexte, puis nous évaluons leurs performances sur la base de simulations. Nous montrons que, dans certains cas, des informations liées au contexte, telles que la localisation ou l'intensité du signal, peuvent améliorer l'efficience de ces algorithmes. Sur le plan pratique, nous proposons une plateforme logicielle pour la création de bancs d'essai, intitulé ManetLab, permettant d'implémenter, et de déployer des protocoles spécifiques aux MANETs, de sorte à évaluer leur performance. Cet outil logiciel vise à accroître la précision desévaluations de performance comparativement à celles fournies par des simulations, tout en conservant la facilité d'utilisation offerte par les simulateurs pour reproduire uneévaluation de performance. En évaluant les performances de différents algorithmes probabilistes avec ManetLab, nous observons que simulateurs et bancs d'essai doivent être utilisés de manière complémentaire. En plus de ces contributions principales, nous fournissons également deux états de l'art au sujet du support nécessaire pour les communications ad hoc. Le premier porte sur les algorithmes de diffusion existants et le second sur les solutions de type middleware existantes et la façon dont elles traitent de la confidentialité, en particulier celle de la localisation.
Resumo:
Disturbances affect metapopulations directly through reductions in population size and indirectly through habitat modification. We consider how metapopulation persistence is affected by different disturbance regimes and the way in which disturbances spread, when metapopulations are compact or elongated, using a stochastic spatially explicit model which includes metapopulation and habitat dynamics. We discover that the risk of population extinction is larger for spatially aggregated disturbances than for spatially random disturbances. By changing the spatial configuration of the patches in the system--leading to different proportions of edge and interior patches--we demonstrate that the probability of metapopulation extinction is smaller when the metapopulation is more compact. Both of these results become more pronounced when colonization connectivity decreases. Our results have important management implication as edge patches, which are invariably considered to be less important, may play an important role as disturbance refugia.
Resumo:
Executive Summary The unifying theme of this thesis is the pursuit of a satisfactory ways to quantify the riskureward trade-off in financial economics. First in the context of a general asset pricing model, then across models and finally across country borders. The guiding principle in that pursuit was to seek innovative solutions by combining ideas from different fields in economics and broad scientific research. For example, in the first part of this thesis we sought a fruitful application of strong existence results in utility theory to topics in asset pricing. In the second part we implement an idea from the field of fuzzy set theory to the optimal portfolio selection problem, while the third part of this thesis is to the best of our knowledge, the first empirical application of some general results in asset pricing in incomplete markets to the important topic of measurement of financial integration. While the first two parts of this thesis effectively combine well-known ways to quantify the risk-reward trade-offs the third one can be viewed as an empirical verification of the usefulness of the so-called "good deal bounds" theory in designing risk-sensitive pricing bounds. Chapter 1 develops a discrete-time asset pricing model, based on a novel ordinally equivalent representation of recursive utility. To the best of our knowledge, we are the first to use a member of a novel class of recursive utility generators to construct a representative agent model to address some long-lasting issues in asset pricing. Applying strong representation results allows us to show that the model features countercyclical risk premia, for both consumption and financial risk, together with low and procyclical risk free rate. As the recursive utility used nests as a special case the well-known time-state separable utility, all results nest the corresponding ones from the standard model and thus shed light on its well-known shortcomings. The empirical investigation to support these theoretical results, however, showed that as long as one resorts to econometric methods based on approximating conditional moments with unconditional ones, it is not possible to distinguish the model we propose from the standard one. Chapter 2 is a join work with Sergei Sontchik. There we provide theoretical and empirical motivation for aggregation of performance measures. The main idea is that as it makes sense to apply several performance measures ex-post, it also makes sense to base optimal portfolio selection on ex-ante maximization of as many possible performance measures as desired. We thus offer a concrete algorithm for optimal portfolio selection via ex-ante optimization over different horizons of several risk-return trade-offs simultaneously. An empirical application of that algorithm, using seven popular performance measures, suggests that realized returns feature better distributional characteristics relative to those of realized returns from portfolio strategies optimal with respect to single performance measures. When comparing the distributions of realized returns we used two partial risk-reward orderings first and second order stochastic dominance. We first used the Kolmogorov Smirnov test to determine if the two distributions are indeed different, which combined with a visual inspection allowed us to demonstrate that the way we propose to aggregate performance measures leads to portfolio realized returns that first order stochastically dominate the ones that result from optimization only with respect to, for example, Treynor ratio and Jensen's alpha. We checked for second order stochastic dominance via point wise comparison of the so-called absolute Lorenz curve, or the sequence of expected shortfalls for a range of quantiles. As soon as the plot of the absolute Lorenz curve for the aggregated performance measures was above the one corresponding to each individual measure, we were tempted to conclude that the algorithm we propose leads to portfolio returns distribution that second order stochastically dominates virtually all performance measures considered. Chapter 3 proposes a measure of financial integration, based on recent advances in asset pricing in incomplete markets. Given a base market (a set of traded assets) and an index of another market, we propose to measure financial integration through time by the size of the spread between the pricing bounds of the market index, relative to the base market. The bigger the spread around country index A, viewed from market B, the less integrated markets A and B are. We investigate the presence of structural breaks in the size of the spread for EMU member country indices before and after the introduction of the Euro. We find evidence that both the level and the volatility of our financial integration measure increased after the introduction of the Euro. That counterintuitive result suggests the presence of an inherent weakness in the attempt to measure financial integration independently of economic fundamentals. Nevertheless, the results about the bounds on the risk free rate appear plausible from the view point of existing economic theory about the impact of integration on interest rates.
Resumo:
Protein destabilization by mutations or external stresses may lead to misfolding and aggregation in the cell. Often, damage is not limited to a simple loss of function, but the hydrophobic exposure of aggregate surfaces may impair membrane functions and promote the aggregation of other proteins. Such a "proteinacious infectious" behavior is not limited to prion diseases. It is associated to most protein-misfolding neurodegenerative diseases and to aging in general. With the molecular chaperones and proteases, cells have evolved powerful tools that can specifically recognize and act upon misfolded and aggregated proteins. Whereas some chaperones passively prevent aggregate formation and propagation, others actively unfold and solubilize stable aggregates. In particular, ATPase chaperones and proteases serve as an intracellular defense network that can specifically identify and actively remove by refolding or degradation potentially infectious cytotoxic aggregates. Here we discuss two types of molecular mechanisms by which ATPase chaperones may actively solubilize stable aggregates: (1) unfolding by power strokes, using the Hsp100 ring chaperones, and (2) unfolding by random movements of individual Hsp70 molecules. In bacteria, fungi, and plants, the two mechanisms are key for reducing protein damages from abiotic stresses. In animals devoid of Hsp100, Hsp70 appears as the core element of the chaperone network, preventing the formation and actively removing disease-causing protein aggregates.
Resumo:
1. The environment of parasites is determined largely by their hosts. Variation in host quality, abundance and spatial distribution affects the balance between selection within hosts and gene flow between hosts, and this should determine the evolution of a parasite's host-range and its propensity to locally adapt and speciate. 2. We investigated the relationship between host spatial distribution and (1) parasite host range, (2) parasite mobility and (3) parasite geographical range, in a comparative study of a major group of avian ectoparasites, the birds fleas belonging to the Ceratophyllidae (Siphonaptera). 3. Flea species parasitizing colonial birds had narrower host ranges than those infesting territorial nesters or birds with an intermediate level of nest aggregation. 4. The potential mobility and geographical ranges of fleas decreased with increasing level of aggregation of their hosts and increased with the fleas' host ranges. 5. Birds with aggregated nest distribution harboured more flea species mainly due to a larger number of specialists than solitarily nesting hosts. 6. These results emphasize the importance of host spatial distribution for the evolution of specialization, and for local adaptation and speciation in Ceratophyllid bird fleas.
Resumo:
Ces dernières années, de nombreuses recherches ont mis en évidence les effets toxiques des micropolluants organiques pour les espèces de nos lacs et rivières. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, alors que les organismes sont exposés tous les jours à des milliers de substances en mélange. Or les effets de ces cocktails ne sont pas négligeables. Cette thèse de doctorat s'est ainsi intéressée aux modèles permettant de prédire le risque environnemental de ces cocktails pour le milieu aquatique. Le principal objectif a été d'évaluer le risque écologique des mélanges de substances chimiques mesurées dans le Léman, mais aussi d'apporter un regard critique sur les méthodologies utilisées afin de proposer certaines adaptations pour une meilleure estimation du risque. Dans la première partie de ce travail, le risque des mélanges de pesticides et médicaments pour le Rhône et pour le Léman a été établi en utilisant des approches envisagées notamment dans la législation européenne. Il s'agit d'approches de « screening », c'est-à-dire permettant une évaluation générale du risque des mélanges. Une telle approche permet de mettre en évidence les substances les plus problématiques, c'est-à-dire contribuant le plus à la toxicité du mélange. Dans notre cas, il s'agit essentiellement de 4 pesticides. L'étude met également en évidence que toutes les substances, même en trace infime, contribuent à l'effet du mélange. Cette constatation a des implications en terme de gestion de l'environnement. En effet, ceci implique qu'il faut réduire toutes les sources de polluants, et pas seulement les plus problématiques. Mais l'approche proposée présente également un biais important au niveau conceptuel, ce qui rend son utilisation discutable, en dehors d'un screening, et nécessiterait une adaptation au niveau des facteurs de sécurité employés. Dans une deuxième partie, l'étude s'est portée sur l'utilisation des modèles de mélanges dans le calcul de risque environnemental. En effet, les modèles de mélanges ont été développés et validés espèce par espèce, et non pour une évaluation sur l'écosystème en entier. Leur utilisation devrait donc passer par un calcul par espèce, ce qui est rarement fait dû au manque de données écotoxicologiques à disposition. Le but a été donc de comparer, avec des valeurs générées aléatoirement, le calcul de risque effectué selon une méthode rigoureuse, espèce par espèce, avec celui effectué classiquement où les modèles sont appliqués sur l'ensemble de la communauté sans tenir compte des variations inter-espèces. Les résultats sont dans la majorité des cas similaires, ce qui valide l'approche utilisée traditionnellement. En revanche, ce travail a permis de déterminer certains cas où l'application classique peut conduire à une sous- ou sur-estimation du risque. Enfin, une dernière partie de cette thèse s'est intéressée à l'influence que les cocktails de micropolluants ont pu avoir sur les communautés in situ. Pour ce faire, une approche en deux temps a été adoptée. Tout d'abord la toxicité de quatorze herbicides détectés dans le Léman a été déterminée. Sur la période étudiée, de 2004 à 2009, cette toxicité due aux herbicides a diminué, passant de 4% d'espèces affectées à moins de 1%. Ensuite, la question était de savoir si cette diminution de toxicité avait un impact sur le développement de certaines espèces au sein de la communauté des algues. Pour ce faire, l'utilisation statistique a permis d'isoler d'autres facteurs pouvant avoir une influence sur la flore, comme la température de l'eau ou la présence de phosphates, et ainsi de constater quelles espèces se sont révélées avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps. Fait intéressant, une partie d'entre-elles avait déjà montré des comportements similaires dans des études en mésocosmes. En conclusion, ce travail montre qu'il existe des modèles robustes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques, et qu'ils peuvent être utilisés pour expliquer le rôle des substances dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application. - Depuis plusieurs années, les risques que posent les micropolluants organiques pour le milieu aquatique préoccupent grandement les scientifiques ainsi que notre société. En effet, de nombreuses recherches ont mis en évidence les effets toxiques que peuvent avoir ces substances chimiques sur les espèces de nos lacs et rivières, quand elles se retrouvent exposées à des concentrations aiguës ou chroniques. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, c'est à dire considérées séparément. Actuellement, il en est de même dans les procédures de régulation européennes, concernant la partie évaluation du risque pour l'environnement d'une substance. Or, les organismes sont exposés tous les jours à des milliers de substances en mélange, et les effets de ces "cocktails" ne sont pas négligeables. L'évaluation du risque écologique que pose ces mélanges de substances doit donc être abordé par de la manière la plus appropriée et la plus fiable possible. Dans la première partie de cette thèse, nous nous sommes intéressés aux méthodes actuellement envisagées à être intégrées dans les législations européennes pour l'évaluation du risque des mélanges pour le milieu aquatique. Ces méthodes sont basées sur le modèle d'addition des concentrations, avec l'utilisation des valeurs de concentrations des substances estimées sans effet dans le milieu (PNEC), ou à partir des valeurs des concentrations d'effet (CE50) sur certaines espèces d'un niveau trophique avec la prise en compte de facteurs de sécurité. Nous avons appliqué ces méthodes à deux cas spécifiques, le lac Léman et le Rhône situés en Suisse, et discuté les résultats de ces applications. Ces premières étapes d'évaluation ont montré que le risque des mélanges pour ces cas d'étude atteint rapidement une valeur au dessus d'un seuil critique. Cette valeur atteinte est généralement due à deux ou trois substances principales. Les procédures proposées permettent donc d'identifier les substances les plus problématiques pour lesquelles des mesures de gestion, telles que la réduction de leur entrée dans le milieu aquatique, devraient être envisagées. Cependant, nous avons également constaté que le niveau de risque associé à ces mélanges de substances n'est pas négligeable, même sans tenir compte de ces substances principales. En effet, l'accumulation des substances, même en traces infimes, atteint un seuil critique, ce qui devient plus difficile en terme de gestion du risque. En outre, nous avons souligné un manque de fiabilité dans ces procédures, qui peuvent conduire à des résultats contradictoires en terme de risque. Ceci est lié à l'incompatibilité des facteurs de sécurité utilisés dans les différentes méthodes. Dans la deuxième partie de la thèse, nous avons étudié la fiabilité de méthodes plus avancées dans la prédiction de l'effet des mélanges pour les communautés évoluant dans le système aquatique. Ces méthodes reposent sur le modèle d'addition des concentrations (CA) ou d'addition des réponses (RA) appliqués sur les courbes de distribution de la sensibilité des espèces (SSD) aux substances. En effet, les modèles de mélanges ont été développés et validés pour être appliqués espèce par espèce, et non pas sur plusieurs espèces agrégées simultanément dans les courbes SSD. Nous avons ainsi proposé une procédure plus rigoureuse, pour l'évaluation du risque d'un mélange, qui serait d'appliquer d'abord les modèles CA ou RA à chaque espèce séparément, et, dans une deuxième étape, combiner les résultats afin d'établir une courbe SSD du mélange. Malheureusement, cette méthode n'est pas applicable dans la plupart des cas, car elle nécessite trop de données généralement indisponibles. Par conséquent, nous avons comparé, avec des valeurs générées aléatoirement, le calcul de risque effectué selon cette méthode plus rigoureuse, avec celle effectuée traditionnellement, afin de caractériser la robustesse de cette approche qui consiste à appliquer les modèles de mélange sur les courbes SSD. Nos résultats ont montré que l'utilisation de CA directement sur les SSDs peut conduire à une sous-estimation de la concentration du mélange affectant 5 % ou 50% des espèces, en particulier lorsque les substances présentent un grand écart- type dans leur distribution de la sensibilité des espèces. L'application du modèle RA peut quant à lui conduire à une sur- ou sous-estimations, principalement en fonction de la pente des courbes dose- réponse de chaque espèce composant les SSDs. La sous-estimation avec RA devient potentiellement importante lorsque le rapport entre la EC50 et la EC10 de la courbe dose-réponse des espèces est plus petit que 100. Toutefois, la plupart des substances, selon des cas réels, présentent des données d' écotoxicité qui font que le risque du mélange calculé par la méthode des modèles appliqués directement sur les SSDs reste cohérent et surestimerait plutôt légèrement le risque. Ces résultats valident ainsi l'approche utilisée traditionnellement. Néanmoins, il faut garder à l'esprit cette source d'erreur lorsqu'on procède à une évaluation du risque d'un mélange avec cette méthode traditionnelle, en particulier quand les SSD présentent une distribution des données en dehors des limites déterminées dans cette étude. Enfin, dans la dernière partie de cette thèse, nous avons confronté des prédictions de l'effet de mélange avec des changements biologiques observés dans l'environnement. Dans cette étude, nous avons utilisé des données venant d'un suivi à long terme d'un grand lac européen, le lac Léman, ce qui offrait la possibilité d'évaluer dans quelle mesure la prédiction de la toxicité des mélanges d'herbicide expliquait les changements dans la composition de la communauté phytoplanctonique. Ceci à côté d'autres paramètres classiques de limnologie tels que les nutriments. Pour atteindre cet objectif, nous avons déterminé la toxicité des mélanges sur plusieurs années de 14 herbicides régulièrement détectés dans le lac, en utilisant les modèles CA et RA avec les courbes de distribution de la sensibilité des espèces. Un gradient temporel de toxicité décroissant a pu être constaté de 2004 à 2009. Une analyse de redondance et de redondance partielle, a montré que ce gradient explique une partie significative de la variation de la composition de la communauté phytoplanctonique, même après avoir enlevé l'effet de toutes les autres co-variables. De plus, certaines espèces révélées pour avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps, ont montré des comportements similaires dans des études en mésocosmes. On peut en conclure que la toxicité du mélange herbicide est l'un des paramètres clés pour expliquer les changements de phytoplancton dans le lac Léman. En conclusion, il existe diverses méthodes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques et celui-ci peut jouer un rôle dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application, avant d'utiliser leurs résultats pour la gestion des risques environnementaux. - For several years now, the scientists as well as the society is concerned by the aquatic risk organic micropollutants may pose. Indeed, several researches have shown the toxic effects these substances may induce on organisms living in our lakes or rivers, especially when they are exposed to acute or chronic concentrations. However, most of the studies focused on the toxicity of single compounds, i.e. considered individually. The same also goes in the current European regulations concerning the risk assessment procedures for the environment of these substances. But aquatic organisms are typically exposed every day simultaneously to thousands of organic compounds. The toxic effects resulting of these "cocktails" cannot be neglected. The ecological risk assessment of mixtures of such compounds has therefore to be addressed by scientists in the most reliable and appropriate way. In the first part of this thesis, the procedures currently envisioned for the aquatic mixture risk assessment in European legislations are described. These methodologies are based on the mixture model of concentration addition and the use of the predicted no effect concentrations (PNEC) or effect concentrations (EC50) with assessment factors. These principal approaches were applied to two specific case studies, Lake Geneva and the River Rhône in Switzerland, including a discussion of the outcomes of such applications. These first level assessments showed that the mixture risks for these studied cases exceeded rapidly the critical value. This exceeding is generally due to two or three main substances. The proposed procedures allow therefore the identification of the most problematic substances for which management measures, such as a reduction of the entrance to the aquatic environment, should be envisioned. However, it was also showed that the risk levels associated with mixtures of compounds are not negligible, even without considering these main substances. Indeed, it is the sum of the substances that is problematic, which is more challenging in term of risk management. Moreover, a lack of reliability in the procedures was highlighted, which can lead to contradictory results in terms of risk. This result is linked to the inconsistency in the assessment factors applied in the different methods. In the second part of the thesis, the reliability of the more advanced procedures to predict the mixture effect to communities in the aquatic system were investigated. These established methodologies combine the model of concentration addition (CA) or response addition (RA) with species sensitivity distribution curves (SSD). Indeed, the mixture effect predictions were shown to be consistent only when the mixture models are applied on a single species, and not on several species simultaneously aggregated to SSDs. Hence, A more stringent procedure for mixture risk assessment is proposed, that would be to apply first the CA or RA models to each species separately and, in a second step, to combine the results to build an SSD for a mixture. Unfortunately, this methodology is not applicable in most cases, because it requires large data sets usually not available. Therefore, the differences between the two methodologies were studied with datasets created artificially to characterize the robustness of the traditional approach applying models on species sensitivity distribution. The results showed that the use of CA on SSD directly might lead to underestimations of the mixture concentration affecting 5% or 50% of species, especially when substances present a large standard deviation of the distribution from the sensitivity of the species. The application of RA can lead to over- or underestimates, depending mainly on the slope of the dose-response curves of the individual species. The potential underestimation with RA becomes important when the ratio between the EC50 and the EC10 for the dose-response curve of the species composing the SSD are smaller than 100. However, considering common real cases of ecotoxicity data for substances, the mixture risk calculated by the methodology applying mixture models directly on SSDs remains consistent and would rather slightly overestimate the risk. These results can be used as a theoretical validation of the currently applied methodology. Nevertheless, when assessing the risk of mixtures, one has to keep in mind this source of error with this classical methodology, especially when SSDs present a distribution of the data outside the range determined in this study Finally, in the last part of this thesis, we confronted the mixture effect predictions with biological changes observed in the environment. In this study, long-term monitoring of a European great lake, Lake Geneva, provides the opportunity to assess to what extent the predicted toxicity of herbicide mixtures explains the changes in the composition of the phytoplankton community next to other classical limnology parameters such as nutrients. To reach this goal, the gradient of the mixture toxicity of 14 herbicides regularly detected in the lake was calculated, using concentration addition and response addition models. A decreasing temporal gradient of toxicity was observed from 2004 to 2009. Redundancy analysis and partial redundancy analysis showed that this gradient explains a significant portion of the variation in phytoplankton community composition, even when having removed the effect of all other co-variables. Moreover, some species that were revealed to be influenced positively or negatively, by the decrease of toxicity in the lake over time, showed similar behaviors in mesocosms studies. It could be concluded that the herbicide mixture toxicity is one of the key parameters to explain phytoplankton changes in Lake Geneva. To conclude, different methods exist to predict the risk of mixture in the ecosystems. But their reliability varies depending on the underlying hypotheses. One should therefore carefully consider these hypotheses, as well as the limits of the approaches, before using the results for environmental risk management
Resumo:
Abstract Traditionally, the common reserving methods used by the non-life actuaries are based on the assumption that future claims are going to behave in the same way as they did in the past. There are two main sources of variability in the processus of development of the claims: the variability of the speed with which the claims are settled and the variability between the severity of the claims from different accident years. High changes in these processes will generate distortions in the estimation of the claims reserves. The main objective of this thesis is to provide an indicator which firstly identifies and quantifies these two influences and secondly to determine which model is adequate for a specific situation. Two stochastic models were analysed and the predictive distributions of the future claims were obtained. The main advantage of the stochastic models is that they provide measures of variability of the reserves estimates. The first model (PDM) combines one conjugate family Dirichlet - Multinomial with the Poisson distribution. The second model (NBDM) improves the first one by combining two conjugate families Poisson -Gamma (for distribution of the ultimate amounts) and Dirichlet Multinomial (for distribution of the incremental claims payments). It was found that the second model allows to find the speed variability in the reporting process and development of the claims severity as function of two above mentioned distributions' parameters. These are the shape parameter of the Gamma distribution and the Dirichlet parameter. Depending on the relation between them we can decide on the adequacy of the claims reserve estimation method. The parameters have been estimated by the Methods of Moments and Maximum Likelihood. The results were tested using chosen simulation data and then using real data originating from the three lines of business: Property/Casualty, General Liability, and Accident Insurance. These data include different developments and specificities. The outcome of the thesis shows that when the Dirichlet parameter is greater than the shape parameter of the Gamma, resulting in a model with positive correlation between the past and future claims payments, suggests the Chain-Ladder method as appropriate for the claims reserve estimation. In terms of claims reserves, if the cumulated payments are high the positive correlation will imply high expectations for the future payments resulting in high claims reserves estimates. The negative correlation appears when the Dirichlet parameter is lower than the shape parameter of the Gamma, meaning low expected future payments for the same high observed cumulated payments. This corresponds to the situation when claims are reported rapidly and fewer claims remain expected subsequently. The extreme case appears in the situation when all claims are reported at the same time leading to expectations for the future payments of zero or equal to the aggregated amount of the ultimate paid claims. For this latter case, the Chain-Ladder is not recommended.
Proteomic data from human cell cultures refine mechanisms of chaperone-mediated protein homeostasis.
Resumo:
In the crowded environment of human cells, folding of nascent polypeptides and refolding of stress-unfolded proteins is error prone. Accumulation of cytotoxic misfolded and aggregated species may cause cell death, tissue loss, degenerative conformational diseases, and aging. Nevertheless, young cells effectively express a network of molecular chaperones and folding enzymes, termed here "the chaperome," which can prevent formation of potentially harmful misfolded protein conformers and use the energy of adenosine triphosphate (ATP) to rehabilitate already formed toxic aggregates into native functional proteins. In an attempt to extend knowledge of chaperome mechanisms in cellular proteostasis, we performed a meta-analysis of human chaperome using high-throughput proteomic data from 11 immortalized human cell lines. Chaperome polypeptides were about 10 % of total protein mass of human cells, half of which were Hsp90s and Hsp70s. Knowledge of cellular concentrations and ratios among chaperome polypeptides provided a novel basis to understand mechanisms by which the Hsp60, Hsp70, Hsp90, and small heat shock proteins (HSPs), in collaboration with cochaperones and folding enzymes, assist de novo protein folding, import polypeptides into organelles, unfold stress-destabilized toxic conformers, and control the conformal activity of native proteins in the crowded environment of the cell. Proteomic data also provided means to distinguish between stable components of chaperone core machineries and dynamic regulatory cochaperones.
Resumo:
L'imagerie est de plus en plus utilisée en médecine forensique. Actuellement, les connaissances nécessaires pour interpréter les images post mortem sont faibles et surtout celles concernant les artéfacts post mortem. Le moyen radiologique le plus utilisé en médecine légale est la tomodensitométrie multi-coupes (TDMC). Un de ses avantages est la détection de gaz dans le corps. Cette technique est utile au diagnostic d'embolie gazeuse mais sa très grande sensibilité rend visible du gaz présent même en petite quantité. Les premières expériences montrent que presque tous les corps scannés présentent du gaz surtout dans le système vasculaire. Pour cette raison, le médecin légiste est confronté à un nouveau problème : la distinction entre du gaz d'origine post-mortem et une embolie gazeuse vraie. Pour parvenir à cette distinction, il est essentiel d'étudier la distribution de ces gaz en post mortem. Aucune étude systématique n'a encore été réalisée à ce jour sur ce sujet.¦Nous avons étudié l'incidence et la distribution des gaz présents en post mortem dans les vaisseaux, dans les os, dans les tissus sous-cutanés, dans l'espace sous-dural ainsi que dans les cavités crânienne, thoracique et abdominale (82 sites au total) de manière à identifier les facteurs qui pourraient distinguer le gaz post-mortem artéfactuel d'une embolie gazeuse¦Les données TDMC de 119 cadavres ont été étudiées rétrospectivement. Les critères d'inclusion des sujets sont l'absence de lésion corporelle permettant la contamination avec l'air extérieur, et, la documentation du délai entre le moment du décès et celui du CT-scan (p.ex. rapport de police, protocole de réanimation ou témoin). La présence de gaz a été évaluée semi-quantitativement par deux radiologues et codifiée. La codification est la suivante : grade 0 = pas de gaz, grade 1 = une à quelques bulles d'air, grade 2 = structure partiellement remplie d'air, grade 3 = structure complètement remplie d'air.¦Soixante-quatre des 119 cadavres présentent du gaz (62,2%), et 56 (75,7%) ont montré du gaz dans le coeur. Du gaz a été détecté le plus fréquemment dans le parenchyme hépatique (40%); le coeur droit (ventricule 38%, atrium 35%), la veine cave inférieure (infra-rénale 30%, supra-rénale 26%), les veines sus-hépatiques (gauche 26%, moyenne 29%, droite 22 %), et les espaces du porte (29%). Nous avons constaté qu'une grande quantité de gaz liée à la putréfaction présente dans le coeur droit (grade 3) est associée à des collections de gaz dans le parenchyme hépatique (sensibilité = 100%, spécificité = 89,7%). Pour décrire nos résultats, nous avons construit une séquence d'animation qui illustre le processus de putréfaction et l'apparition des gaz à la TDMC post-mortem.¦Cette étude est la première à montrer que l'apparition post-mortem des gaz suit un modèle de distribution spécifique. L'association entre la présence de gaz intracardiaque et dans le parenchyme hépatique pourrait permettre de distinguer du gaz artéfactuel d'origine post-mortem d'une embolie gazeuse vraie. Cette étude fournit une clé pour le diagnostic de la mort due à une embolie gazeuse cardiaque sur la base d'une TDMC post-mortem.¦Abstract¦Purpose: We investigated the incidence and distribution of post-mortem gas detected with multidetector computed tomography (MDCT) to identify factors that could distinguish artifactual gas from cardiac air embolism.¦Material and Methods: MDCT data of 119 cadavers were retrospectively examined. Gas was semiquantitatively assessed in selected blood vessels, organs and body spaces (82 total sites).¦Results: Seventy-four of the 119 cadavers displayed gas (62.2%; CI 95% 52.8 to 70.9), and 56 (75.7%) displayed gas in the heart. Most gas was detected in the hepatic parenchyma (40%); right heart (38% ventricle, 35% atrium), inferior vena cava (30% infrarenally, 26% suprarenally), hepatic veins (26% left, 29% middle, 22% right), and portal spaces (29%). Male cadavers displayed gas more frequently than female cadavers. Gas was detected 5-84 h after death; therefore, the post-mortem interval could not reliably predict gas distribution (rho=0.719, p<0.0001). We found that a large amount of putrefaction-generated gas in the right heart was associated with aggregated gas bubbles in the hepatic parenchyma (sensitivity = 100%, specificity = 89.7%). In contrast, gas in the left heart (sensitivity = 41.7%, specificity = 100%) or in peri-umbilical subcutaneous tissues (sensitivity = 50%, specificity = 96.3%) could not predict gas due to putrefaction.¦Conclusion: This study is the first to show that the appearance of post-mortem gas follows a specific distribution pattern. An association between intracardiac gas and hepatic parenchymal gas could distinguish between post- mortem-generated gas and vital air embolism. We propose that this finding provides a key for diagnosing death due to cardiac air embolism.
Resumo:
Stress-denatured or de novo synthesized and translocated unfolded polypeptides can spontaneously reach their native state without assistance of other proteins. Yet, the pathway to native folding is complex, stress-sensitive and prone to errors. Toxic misfolded and aggregated conformers may accumulate in cells and lead to degenerative diseases. Members of the canonical conserved families of molecular chaperones, Hsp100s, Hsp70/110/40s, Hsp60/CCTs, the small Hsps and probably also Hsp90s, can recognize and bind with high affinity, abnormally exposed hydrophobic surfaces on misfolded and aggregated polypeptides. Binding to Hsp100, Hsp70, Hsp110, Hsp40, Hsp60, CCTs and Trigger factor may cause partial unfolding of the misfolded polypeptide substrates, and ATP hydrolysis can induce further unfolding and release from the chaperone, leading to spontaneous refolding into native proteins with low-affinity for the chaperones. Hence, specific chaperones act as catalytic polypeptide unfolding isomerases, rerouting cytotoxic misfolded and aggregated polypeptides back onto their physiological native refolding pathway, thus averting the onset of protein conformational diseases.
Resumo:
By virtue of their general ability to bind (hold) translocating or unfolding polypeptides otherwise doomed to aggregate, molecular chaperones are commonly dubbed "holdases". Yet, chaperones also carry physiological functions that do not necessitate prevention of aggregation, such as altering the native states of proteins, as in the disassembly of SNARE complexes and clathrin coats. To carry such physiological functions, major members of the Hsp70, Hsp110, Hsp100, and Hsp60/CCT chaperone families act as catalytic unfolding enzymes or unfoldases that drive iterative cycles of protein binding, unfolding/pulling, and release. One unfoldase chaperone may thus successively convert many misfolded or alternatively folded polypeptide substrates into transiently unfolded intermediates, which, once released, can spontaneously refold into low-affinity native products. Whereas during stress, a large excess of non-catalytic chaperones in holding mode may optimally prevent protein aggregation, after the stress, catalytic disaggregases and unfoldases may act as nanomachines that use the energy of ATP hydrolysis to repair proteins with compromised conformations. Thus, holding and catalytic unfolding chaperones can act as primary cellular defenses against the formation of early misfolded and aggregated proteotoxic conformers in order to avert or retard the onset of degenerative protein conformational diseases.
Resumo:
1. The formation of groups is a fundamental aspect of social organization, but there are still many questions regarding how social structure emerges from individuals making non-random associations. 2. Although food distribution and individual phenotypic traits are known to separately influence social organization, this is the first study, to our knowledge, experimentally linking them to demonstrate the importance of their interaction in the emergence of social structure. 3. Using an experimental design in which food distribution was either clumped or dispersed, in combination with individuals that varied in exploratory behaviour, our results show that social structure can be induced in the otherwise non-social European shore crab (Carcinus maenas). 4. Regardless of food distribution, individuals with relatively high exploratory behaviour played an important role in connecting otherwise poorly connected individuals. In comparison, low exploratory individuals aggregated into cohesive, stable subgroups (moving together even when not foraging), but only in tanks where resources were clumped. No such non-foraging subgroups formed in environments where food was evenly dispersed. 5. Body size did not accurately explain an individual's role within the network for either type of food distribution. 6. Because of their synchronized movements and potential to gain social information, groups of low exploratory crabs were more effective than singletons at finding food. 7. Because social structure affects selection, and social structure is shown to be sensitive to the interaction between ecological and behavioural differences among individuals, local selective pressures are likely to reflect this interaction.
Resumo:
The consumption of antibiotics in the inpatient setting of Switzerland was assessed to determine possible differences between linguistic regions, and to compare these results with European results. Data on antibiotic consumption were obtained from a sentinel network representing 54% of the national acute care hospitals, and from a private drug market monitoring company. Aggregated data were converted into defined daily doses (DDD). The total consumption density in Switzerland was close to the median consumption reported in European surveys. Between 2004 and 2008, the total consumption of systemic antibiotics rose from 46.1 to 54.0 DDD per 100 occupied bed-days in the entire hospitals, and from 101.6 to 114.3 DDD per 100 occupied bed-days in the intensive care units. Regional differences were observed for total consumption and among antibiotic classes. Hospitals in the Italian-speaking region showed a significantly higher consumption density, followed by the French- and German-speaking regions. Hospitals in the Italian-speaking region also had a higher consumption of fluoroquinolones, in line with the reported differences between Italy, Germany and France. Antibiotic consumption in acute care hospitals in Switzerland is close to the European median with a relatively low consumption in intensive care units. Some of the patterns of variation in consumption levels noticed among European countries are also observed among the cultural regions of Switzerland.
Resumo:
Under optimal non-physiological conditions of low concentrations and low temperatures, proteins may spontaneously fold to the native state, as all the information for folding lies in the amino acid sequence of the polypeptide. However, under conditions of stress or high protein crowding as inside cells, a polypeptide may misfold and enter an aggregation pathway resulting in the formation of misfolded conformers and fibrils, which can be toxic and lead to neurodegenerative illnesses, such as Alzheimer's, Parkinson's or Huntington's diseases and aging in general. To avert and revert protein misfolding and aggregation, cells have evolved a set of proteins called molecular chaperones. Here, I focussed on the human cytosolic chaperones Hsp70 (DnaK) and HspllO, and co-chaperone Hsp40 (DnaJ), and the chaperonin CCT (GroEL). The cytosolic molecular chaperones Hsp70s/Hspll0s and the chaperonins are highly upregulated in bacterial and human cells under different stresses and are involved both in the prevention and the reversion of protein misfolding and aggregation. Hsp70 works in collaboration with Hsp40 to reactivate misfolded or aggregated proteins in a strict ATP dependent manner. Chaperonins (CCT and GroEL) also unfold and reactivate stably misfolded proteins but we found that it needed to use the energy of ATP hydrolysis in order to evict over- sticky misfolded intermediates that inhibited the unfoldase catalytic sites. Ill In this study, we initially characterized a particular type of inactive misfolded monomeric luciferase and rhodanese species that were obtained by repeated cycles of freeze-thawing (FT). These stable misfolded monomeric conformers (FT-luciferase and FT-rhodanese) had exposed hydrophobic residues and were enriched with wrong ß-sheet structures (Chapter 2). Using FT-luciferase as substrate, we found that the Hsp70 orthologs, called HspllO (Sse in yeast), acted similarly to Hsp70 as were bona fide ATP- fuelled polypeptide unfoldases and was much more than a mere nucleotide exchange factor, as generally thought. Moreover, we found that HspllO collaborated with Hsp70 in the disaggregation of stable protein aggregates in which Hsp70 and HspllO acted as equal partners that synergistically combined their individual ATP-consuming polypeptide unfoldase activities to reactivate the misfolded/aggregated proteins (Chapter 3). Using FT-rhodanese as substrate, we found that chaperonins (GroEL and CCT) could catalytically reactivate misfolded rhodanese monomers in the absence of ATP. Also, our results suggested that encaging of an unfolding polypeptide inside the GroEL cavity under a GroES cap was not an obligatory step as generally thought (Chapter 4). Further, we investigated the role of Hsp40, a J-protein co-chaperone of Hsp70, in targeting misfolded polypeptides substrates onto Hsp70 for unfolding. We found that even a large excess of monomeric unfolded a-synuclein did not inhibit DnaJ, whereas, in contrast, stable misfolded a-synuclein oligomers strongly inhibited the DnaK-mediated chaperone reaction by way of sequestering the DnaJ co-chaperone. This work revealed that DnaJ could specifically distinguish, and bind potentially toxic stably aggregated species, such as soluble a-synuclein oligomers involved in Parkinson's disease, and with the help of DnaK and ATP convert them into from harmless natively unfolded a-synuclein monomers (chapter 5). Finally, our meta-analysis of microarray data of plant and animal tissues treated with various chemicals and abiotic stresses, revealed possible co-expressions between core chaperone machineries and their co-chaperone regulators. It clearly showed that protein misfolding in the cytosol elicits a different response, consisting of upregulating the synthesis mainly of cytosolic chaperones, from protein misfolding in the endoplasmic reticulum (ER) that elicited a typical unfolded protein response (UPR), consisting of upregulating the synthesis mainly of ER chaperones. We proposed that drugs that best mimicked heat or UPR stress at increasing the chaperone load in the cytoplasm or ER respectively, may prove effective at combating protein misfolding diseases and aging (Chapter 6). - Dans les conditions optimales de basse concentration et de basse température, les protéines vont spontanément adopter un repliement natif car toutes les informations nécessaires se trouvent dans la séquence des acides aminés du polypeptide. En revanche, dans des conditions de stress ou de forte concentration des protéines comme à l'intérieur d'une cellule, un polypeptide peu mal se replier et entrer dans un processus d'agrégation conduisant à la formation de conformères et de fibrilles qui peuvent être toxiques et causer des maladies neurodégénératives comme la maladie d'Alzheimer, la maladie de Parkinson ou la chorée de Huntington. Afin d'empêcher ou de rectifier le mauvais repliement des protéines, les cellules ont développé des protéines appelées chaperonnes. Dans ce travail, je me suis intéressé aux chaperonnes cytosoliques Hsp70 (DnaK) et HspllO, la co-chaperones Hsp40 (DnaJ), le complexe CCT/TRiC et GroEL. Chez les bactéries et les humains, les chaperonnes cytosoliques Hsp70s/Hspl 10s et les « chaperonines» sont fortement activées par différentes conditions de stress et sont toutes impliquées dans la prévention et la correction du mauvais repliement des protéines et de leur agrégation. Hsp70 collabore avec Hsp40 pour réactiver les protéines agrégées ou mal repliées et leur action nécessite de 1ATP. Les chaperonines (GroEL) déplient et réactivent aussi les protéines mal repliées de façon stable mais nous avons trouvé qu'elles utilisent l'ATP pour libérer les intermédiaires collant et mal repliés du site catalytique de dépliage. Nous avons initialement caractérisé un type particulier de formes stables de luciférase et de rhodanese monomériques mal repliées obtenues après plusieurs cycles de congélation / décongélation répétés (FT). Ces monomères exposaient des résidus hydrophobiques et étaient plus riches en feuillets ß anormaux. Ils pouvaient cependant être réactivés par les chaperonnes Hsp70+Hsp40 (DnaK+DnaJ) et de l'ATP, ou par Hsp60 (GroEL) sans ATP (Chapitre 2). En utilisant la FT-Luciferase comme substrat nous avons trouvé que HspllO (un orthologue de Hsp70) était une authentique dépliase, dépendante strictement de l'ATP. De plus, nous avons trouvé que HspllO collaborait avec Hsp70 dans la désagrégation d'agrégats stables de protéines en combinant leurs activités dépliase consommatrice d'ATP (Chapitre 3). En utilisant la FT-rhodanese, nous avons trouvé que les chaperonines (GroEL et CCT) pouvaient réactiver catalytiquement des monomères mal repliés en absence d'ATP. Nos résultats suggérèrent également que la capture d'un polypeptide en cours de dépliement dans la cavité de GroEL et sous un couvercle du complexe GroES ne serait pas une étape obligatoire du mécanisme, comme il est communément accepté dans la littérature (Chapitre 4). De plus, nous avons étudié le rôle de Hsp40, une co-chaperones de Hsp70, dans l'adressage de substrats polypeptidiques mal repliés vers Hsp70. Ce travail a révélé que DnaJ pouvait différencier et lier des polypeptide mal repliés (toxiques), comme des oligomères d'a-synucléine dans la maladie de Parkinson, et clairement les différencier des monomères inoffensifs d'a-synucléine (Chapitre 5). Finalement une méta-analyse de données de microarrays de tissus végétaux et animaux traités avec différents stress chimiques et abiotiques a révélé une possible co-expression de la machinerie des chaperonnes et des régulateurs de co- chaperonne. Cette meta-analyse montre aussi clairement que le mauvais repliement des protéines dans le cytosol entraîne la synthèse de chaperonnes principalement cytosoliques alors que le mauvais repliement de protéines dans le réticulum endoplasmique (ER) entraine une réponse typique de dépliement (UPR) qui consiste principalement en la synthèse de chaperonnes localisées dans l'ER. Nous émettons l'hypothèse que les drogues qui reproduisent le mieux les stress de chaleur ou les stress UPR pourraient se montrer efficaces dans la lutte contre le mauvais repliement des protéines et le vieillissement (Chapitre 6).