93 resultados para theoretical capacity
Resumo:
Ces dernières années, de nombreuses recherches ont mis en évidence les effets toxiques des micropolluants organiques pour les espèces de nos lacs et rivières. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, alors que les organismes sont exposés tous les jours à des milliers de substances en mélange. Or les effets de ces cocktails ne sont pas négligeables. Cette thèse de doctorat s'est ainsi intéressée aux modèles permettant de prédire le risque environnemental de ces cocktails pour le milieu aquatique. Le principal objectif a été d'évaluer le risque écologique des mélanges de substances chimiques mesurées dans le Léman, mais aussi d'apporter un regard critique sur les méthodologies utilisées afin de proposer certaines adaptations pour une meilleure estimation du risque. Dans la première partie de ce travail, le risque des mélanges de pesticides et médicaments pour le Rhône et pour le Léman a été établi en utilisant des approches envisagées notamment dans la législation européenne. Il s'agit d'approches de « screening », c'est-à-dire permettant une évaluation générale du risque des mélanges. Une telle approche permet de mettre en évidence les substances les plus problématiques, c'est-à-dire contribuant le plus à la toxicité du mélange. Dans notre cas, il s'agit essentiellement de 4 pesticides. L'étude met également en évidence que toutes les substances, même en trace infime, contribuent à l'effet du mélange. Cette constatation a des implications en terme de gestion de l'environnement. En effet, ceci implique qu'il faut réduire toutes les sources de polluants, et pas seulement les plus problématiques. Mais l'approche proposée présente également un biais important au niveau conceptuel, ce qui rend son utilisation discutable, en dehors d'un screening, et nécessiterait une adaptation au niveau des facteurs de sécurité employés. Dans une deuxième partie, l'étude s'est portée sur l'utilisation des modèles de mélanges dans le calcul de risque environnemental. En effet, les modèles de mélanges ont été développés et validés espèce par espèce, et non pour une évaluation sur l'écosystème en entier. Leur utilisation devrait donc passer par un calcul par espèce, ce qui est rarement fait dû au manque de données écotoxicologiques à disposition. Le but a été donc de comparer, avec des valeurs générées aléatoirement, le calcul de risque effectué selon une méthode rigoureuse, espèce par espèce, avec celui effectué classiquement où les modèles sont appliqués sur l'ensemble de la communauté sans tenir compte des variations inter-espèces. Les résultats sont dans la majorité des cas similaires, ce qui valide l'approche utilisée traditionnellement. En revanche, ce travail a permis de déterminer certains cas où l'application classique peut conduire à une sous- ou sur-estimation du risque. Enfin, une dernière partie de cette thèse s'est intéressée à l'influence que les cocktails de micropolluants ont pu avoir sur les communautés in situ. Pour ce faire, une approche en deux temps a été adoptée. Tout d'abord la toxicité de quatorze herbicides détectés dans le Léman a été déterminée. Sur la période étudiée, de 2004 à 2009, cette toxicité due aux herbicides a diminué, passant de 4% d'espèces affectées à moins de 1%. Ensuite, la question était de savoir si cette diminution de toxicité avait un impact sur le développement de certaines espèces au sein de la communauté des algues. Pour ce faire, l'utilisation statistique a permis d'isoler d'autres facteurs pouvant avoir une influence sur la flore, comme la température de l'eau ou la présence de phosphates, et ainsi de constater quelles espèces se sont révélées avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps. Fait intéressant, une partie d'entre-elles avait déjà montré des comportements similaires dans des études en mésocosmes. En conclusion, ce travail montre qu'il existe des modèles robustes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques, et qu'ils peuvent être utilisés pour expliquer le rôle des substances dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application. - Depuis plusieurs années, les risques que posent les micropolluants organiques pour le milieu aquatique préoccupent grandement les scientifiques ainsi que notre société. En effet, de nombreuses recherches ont mis en évidence les effets toxiques que peuvent avoir ces substances chimiques sur les espèces de nos lacs et rivières, quand elles se retrouvent exposées à des concentrations aiguës ou chroniques. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, c'est à dire considérées séparément. Actuellement, il en est de même dans les procédures de régulation européennes, concernant la partie évaluation du risque pour l'environnement d'une substance. Or, les organismes sont exposés tous les jours à des milliers de substances en mélange, et les effets de ces "cocktails" ne sont pas négligeables. L'évaluation du risque écologique que pose ces mélanges de substances doit donc être abordé par de la manière la plus appropriée et la plus fiable possible. Dans la première partie de cette thèse, nous nous sommes intéressés aux méthodes actuellement envisagées à être intégrées dans les législations européennes pour l'évaluation du risque des mélanges pour le milieu aquatique. Ces méthodes sont basées sur le modèle d'addition des concentrations, avec l'utilisation des valeurs de concentrations des substances estimées sans effet dans le milieu (PNEC), ou à partir des valeurs des concentrations d'effet (CE50) sur certaines espèces d'un niveau trophique avec la prise en compte de facteurs de sécurité. Nous avons appliqué ces méthodes à deux cas spécifiques, le lac Léman et le Rhône situés en Suisse, et discuté les résultats de ces applications. Ces premières étapes d'évaluation ont montré que le risque des mélanges pour ces cas d'étude atteint rapidement une valeur au dessus d'un seuil critique. Cette valeur atteinte est généralement due à deux ou trois substances principales. Les procédures proposées permettent donc d'identifier les substances les plus problématiques pour lesquelles des mesures de gestion, telles que la réduction de leur entrée dans le milieu aquatique, devraient être envisagées. Cependant, nous avons également constaté que le niveau de risque associé à ces mélanges de substances n'est pas négligeable, même sans tenir compte de ces substances principales. En effet, l'accumulation des substances, même en traces infimes, atteint un seuil critique, ce qui devient plus difficile en terme de gestion du risque. En outre, nous avons souligné un manque de fiabilité dans ces procédures, qui peuvent conduire à des résultats contradictoires en terme de risque. Ceci est lié à l'incompatibilité des facteurs de sécurité utilisés dans les différentes méthodes. Dans la deuxième partie de la thèse, nous avons étudié la fiabilité de méthodes plus avancées dans la prédiction de l'effet des mélanges pour les communautés évoluant dans le système aquatique. Ces méthodes reposent sur le modèle d'addition des concentrations (CA) ou d'addition des réponses (RA) appliqués sur les courbes de distribution de la sensibilité des espèces (SSD) aux substances. En effet, les modèles de mélanges ont été développés et validés pour être appliqués espèce par espèce, et non pas sur plusieurs espèces agrégées simultanément dans les courbes SSD. Nous avons ainsi proposé une procédure plus rigoureuse, pour l'évaluation du risque d'un mélange, qui serait d'appliquer d'abord les modèles CA ou RA à chaque espèce séparément, et, dans une deuxième étape, combiner les résultats afin d'établir une courbe SSD du mélange. Malheureusement, cette méthode n'est pas applicable dans la plupart des cas, car elle nécessite trop de données généralement indisponibles. Par conséquent, nous avons comparé, avec des valeurs générées aléatoirement, le calcul de risque effectué selon cette méthode plus rigoureuse, avec celle effectuée traditionnellement, afin de caractériser la robustesse de cette approche qui consiste à appliquer les modèles de mélange sur les courbes SSD. Nos résultats ont montré que l'utilisation de CA directement sur les SSDs peut conduire à une sous-estimation de la concentration du mélange affectant 5 % ou 50% des espèces, en particulier lorsque les substances présentent un grand écart- type dans leur distribution de la sensibilité des espèces. L'application du modèle RA peut quant à lui conduire à une sur- ou sous-estimations, principalement en fonction de la pente des courbes dose- réponse de chaque espèce composant les SSDs. La sous-estimation avec RA devient potentiellement importante lorsque le rapport entre la EC50 et la EC10 de la courbe dose-réponse des espèces est plus petit que 100. Toutefois, la plupart des substances, selon des cas réels, présentent des données d' écotoxicité qui font que le risque du mélange calculé par la méthode des modèles appliqués directement sur les SSDs reste cohérent et surestimerait plutôt légèrement le risque. Ces résultats valident ainsi l'approche utilisée traditionnellement. Néanmoins, il faut garder à l'esprit cette source d'erreur lorsqu'on procède à une évaluation du risque d'un mélange avec cette méthode traditionnelle, en particulier quand les SSD présentent une distribution des données en dehors des limites déterminées dans cette étude. Enfin, dans la dernière partie de cette thèse, nous avons confronté des prédictions de l'effet de mélange avec des changements biologiques observés dans l'environnement. Dans cette étude, nous avons utilisé des données venant d'un suivi à long terme d'un grand lac européen, le lac Léman, ce qui offrait la possibilité d'évaluer dans quelle mesure la prédiction de la toxicité des mélanges d'herbicide expliquait les changements dans la composition de la communauté phytoplanctonique. Ceci à côté d'autres paramètres classiques de limnologie tels que les nutriments. Pour atteindre cet objectif, nous avons déterminé la toxicité des mélanges sur plusieurs années de 14 herbicides régulièrement détectés dans le lac, en utilisant les modèles CA et RA avec les courbes de distribution de la sensibilité des espèces. Un gradient temporel de toxicité décroissant a pu être constaté de 2004 à 2009. Une analyse de redondance et de redondance partielle, a montré que ce gradient explique une partie significative de la variation de la composition de la communauté phytoplanctonique, même après avoir enlevé l'effet de toutes les autres co-variables. De plus, certaines espèces révélées pour avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps, ont montré des comportements similaires dans des études en mésocosmes. On peut en conclure que la toxicité du mélange herbicide est l'un des paramètres clés pour expliquer les changements de phytoplancton dans le lac Léman. En conclusion, il existe diverses méthodes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques et celui-ci peut jouer un rôle dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application, avant d'utiliser leurs résultats pour la gestion des risques environnementaux. - For several years now, the scientists as well as the society is concerned by the aquatic risk organic micropollutants may pose. Indeed, several researches have shown the toxic effects these substances may induce on organisms living in our lakes or rivers, especially when they are exposed to acute or chronic concentrations. However, most of the studies focused on the toxicity of single compounds, i.e. considered individually. The same also goes in the current European regulations concerning the risk assessment procedures for the environment of these substances. But aquatic organisms are typically exposed every day simultaneously to thousands of organic compounds. The toxic effects resulting of these "cocktails" cannot be neglected. The ecological risk assessment of mixtures of such compounds has therefore to be addressed by scientists in the most reliable and appropriate way. In the first part of this thesis, the procedures currently envisioned for the aquatic mixture risk assessment in European legislations are described. These methodologies are based on the mixture model of concentration addition and the use of the predicted no effect concentrations (PNEC) or effect concentrations (EC50) with assessment factors. These principal approaches were applied to two specific case studies, Lake Geneva and the River Rhône in Switzerland, including a discussion of the outcomes of such applications. These first level assessments showed that the mixture risks for these studied cases exceeded rapidly the critical value. This exceeding is generally due to two or three main substances. The proposed procedures allow therefore the identification of the most problematic substances for which management measures, such as a reduction of the entrance to the aquatic environment, should be envisioned. However, it was also showed that the risk levels associated with mixtures of compounds are not negligible, even without considering these main substances. Indeed, it is the sum of the substances that is problematic, which is more challenging in term of risk management. Moreover, a lack of reliability in the procedures was highlighted, which can lead to contradictory results in terms of risk. This result is linked to the inconsistency in the assessment factors applied in the different methods. In the second part of the thesis, the reliability of the more advanced procedures to predict the mixture effect to communities in the aquatic system were investigated. These established methodologies combine the model of concentration addition (CA) or response addition (RA) with species sensitivity distribution curves (SSD). Indeed, the mixture effect predictions were shown to be consistent only when the mixture models are applied on a single species, and not on several species simultaneously aggregated to SSDs. Hence, A more stringent procedure for mixture risk assessment is proposed, that would be to apply first the CA or RA models to each species separately and, in a second step, to combine the results to build an SSD for a mixture. Unfortunately, this methodology is not applicable in most cases, because it requires large data sets usually not available. Therefore, the differences between the two methodologies were studied with datasets created artificially to characterize the robustness of the traditional approach applying models on species sensitivity distribution. The results showed that the use of CA on SSD directly might lead to underestimations of the mixture concentration affecting 5% or 50% of species, especially when substances present a large standard deviation of the distribution from the sensitivity of the species. The application of RA can lead to over- or underestimates, depending mainly on the slope of the dose-response curves of the individual species. The potential underestimation with RA becomes important when the ratio between the EC50 and the EC10 for the dose-response curve of the species composing the SSD are smaller than 100. However, considering common real cases of ecotoxicity data for substances, the mixture risk calculated by the methodology applying mixture models directly on SSDs remains consistent and would rather slightly overestimate the risk. These results can be used as a theoretical validation of the currently applied methodology. Nevertheless, when assessing the risk of mixtures, one has to keep in mind this source of error with this classical methodology, especially when SSDs present a distribution of the data outside the range determined in this study Finally, in the last part of this thesis, we confronted the mixture effect predictions with biological changes observed in the environment. In this study, long-term monitoring of a European great lake, Lake Geneva, provides the opportunity to assess to what extent the predicted toxicity of herbicide mixtures explains the changes in the composition of the phytoplankton community next to other classical limnology parameters such as nutrients. To reach this goal, the gradient of the mixture toxicity of 14 herbicides regularly detected in the lake was calculated, using concentration addition and response addition models. A decreasing temporal gradient of toxicity was observed from 2004 to 2009. Redundancy analysis and partial redundancy analysis showed that this gradient explains a significant portion of the variation in phytoplankton community composition, even when having removed the effect of all other co-variables. Moreover, some species that were revealed to be influenced positively or negatively, by the decrease of toxicity in the lake over time, showed similar behaviors in mesocosms studies. It could be concluded that the herbicide mixture toxicity is one of the key parameters to explain phytoplankton changes in Lake Geneva. To conclude, different methods exist to predict the risk of mixture in the ecosystems. But their reliability varies depending on the underlying hypotheses. One should therefore carefully consider these hypotheses, as well as the limits of the approaches, before using the results for environmental risk management
Resumo:
Members of the viral Flice/caspase-8 inhibitory protein (v-FLIP) family prevent induction of apoptosis by death receptors through inhibition of the processing and activation of procaspase-8 and -10 at the level of the receptor-associated death-inducing signaling complex (DISC). Here, we have addressed the molecular function of the v-FLIP member MC159 of the human molluscum contagiosum virus. MC159 FLIP powerfully inhibited both caspase-dependent and caspase-independent cell death induced by Fas. The C-terminal region of MC159 bound TNF receptor-associated factor (TRAF)3, was necessary for optimal TRAF2 binding, and mediated the recruitment of both TRAFs into the Fas DISC. TRAF-binding-deficient mutants of MC159 showed impaired inhibition of FasL-induced caspase-8 processing and Fas internalization, and had reduced antiapoptotic activity. Our findings provide evidence that a MC159/TRAF2/TRAF3 complex regulates a new aspect of Fas signaling, and identify MC159 FLIP as a molecule that targets multiple features of Fas-induced cell death.
Resumo:
The Radiello Passive Air Sampler is one of the latest innovations developed for the sampling of pollutants in the air by passive headspace. It has been reported that its properties allow an enhanced sensitivity, reproducibility and adsorption capacity. It therefore appears to be of interest in the extraction of potential residues of ignitable liquids present in fire debris when arson is suspected. A theoretical approach and several laboratory tests have made it possible to precisely characterize in a forensic perspective the potential of the device in extracting and concentrating the vapors of ignitable liquids found in fire debris. Despite some advantages, the Radiello device appears to be less efficient than traditional axial symmetry samplers.
Resumo:
La monnaie a été étudiée par des économistes hétérodoxes, des sociologues et des historiens qui ont souligné ses rapports à l'ordre collectif, mais elle n'est que rarement analysée sous l'angle de la citoyenneté. Notre thèse propose une réflexion théorique sur quatre types de fonctions (politique, symbolique, socioéconomique et psychoaffective) qui permettent à la monnaie de jouer un rôle de médiation de la citoyenneté. A partir d'une perspective qui combine les apports de l'économie politique internationale et de l'école de la régulation, nous montrons que cette médiation ne mobilise pas seulement des mécanismes sociopolitiques nationaux, mais aussi des mécanismes internationaux qui rétroagissent sur la sphère domestique des États et affectent leur capacité à définir leur régime de citoyenneté. Cette relation est analysée dans le contexte de l'institutionnalisation du système monétaire international de Bretton Woods (1944) et du développement de la globalisation financière depuis les années 1970. Si la monnaie a été mise au service d'un principe de protection des droits sociaux des citoyens contre les pressions financières extérieures après la Seconde guerre mondiale, elle contribue aujourd'hui à l'ouverture de la sphère domestique des Etats aux flux de capitaux transnationaux et à la création d'un ordre politique et juridique favorable aux droits des investisseurs. Cette dynamique est impulsée par l'essor de nouveaux intermédiaires financiers (notamment les agences de notation et les investisseurs institutionnels) et l'émergence concomitante d'une nouvelle forme d'Etat légitimée à partir d'un discours politique néolibéral insistant sur la quête de compétitivité, la réduction de la protection sociale et la responsabilisation individuelle. Elle se traduit par la privatisation des régimes de retraite et le développement des politiques d'éducation financière qui incitent les citoyens à se comporter en « preneurs de risques » actifs et responsables, assurant eux-mêmes leur sécurité économique à travers le placement de leur épargne retraite sur les marchés financiers. Nous soulignons toutefois les difficultés institutionnelles, cognitives et socioéconomiques qui rendent cette transformation de la citoyenneté contradictoire et problématique. Money has been studied by heterodox economists, sociologists and historians who stressed its relationship to collective order. However, it has hardly been analysed from the viewpoint of its relationship to citizenship. We propose a theoretical account of four types of functions (political, symbolic, socioeconomic and psychoaffective) enabling money to operate as a mediation of citizenship. From a perspective that combines the contributions of international political economy and the regulation school, we show that this mediation mobilises not only national sociopolitical mechanisms, but also international mechanisms which feed back on the domestic sphere of states and affect their capacity to define their regime of citizenship. This relationship is analysed in the context of the institutionalisation of the international monetary system of Bretton Woods (1944) and the development of financial globalization since the 1970s. If money has served to protect the social rights of citizens against external financial pressures after the Second World War, today it contributes to the opening of the domestic sphere of states to transnational capital flows and to the creation of a political and legal order favorable to the rights of investors. This dynamic is driven by the rise of new financial intermediaries (in particular rating agencies and institutional investisors) and the simultaneous emergence of a new form of state legitimized from a neoliberal political discourse emphasizing the quest for competitiveness, reduced social protection and individual responsibilization. It results in the privatization of pension systems and the development of policies of financial education that encourage citizens to behave as active and responsible « risk takers », ensuring their own economic security through the investment of their savings retirement on financial markets. However, we emphasize the institutional, cognitive and socioeconomic difficulties that make this transformation of citizenship contradictory and problematic. - Money has been studied by heterodox economists, sociologists and historians who stressed its relationship to collective order. However, it has hardly been analysed from the viewpoint of its relationship to citizenship. We propose a theoretical account of four types of functions (political, symbolic, socioeconomic and psychoaffective) enabling money to operate as a mediation of citizenship. From a perspective that combines the contributions of international political economy and the regulation school, we show that this mediation mobilises not only national sociopolitical mechanisms, but also international mechanisms which feed back on the domestic sphere of states and affect their capacity to define their regime of citizenship. This relationship is analysed in the context of the institutionalisation of the international monetary system of Bretton Woods (1944) and the development of financial globalization since the 1970s. If money has served to protect the social rights of citizens against external financial pressures after the Second World War, today it contributes to the opening of the domestic sphere of states to transnational capital flows and to the creation of a political and legal order favorable to the rights of investors. This dynamic is driven by the rise of new financial intermediaries (in particular rating agencies and institutional investisors) and the simultaneous emergence of a new form of state legitimized from a neoliberal political discourse emphasizing the quest for competitiveness, reduced social protection and individual responsibilization. It results in the privatization of pension systems and the development of policies of financial education that encourage citizens to behave as active and responsible « risk takers », ensuring their own economic security through the investment of their savings retirement on financial markets. However, we emphasize the institutional, cognitive and socioeconomic difficulties that make this transformation of citizenship problematic.
Resumo:
Enterprise Architecture (EA), which has been approached by both academia and industry, is considered comprising not only architectural representations, but also principles guiding architecture's design and evolution. Even though the concept of EA principles has been defined as the integral part of EA, the number of publications on this subject is very limited and only a few organizations use EA principles to manage their EA endeavors. In order to critically assess the current state of research and identify research gaps in EA principles, we focus on four general aspects of theoretical contributions in IS. By applying these aspects to EA principles, we outline future research directions in EA principles nature, adoption, practices, and impact.
Resumo:
Schizotypy, defined in terms of commonly occurring personality traits related to the schizophrenia spectrum, has been an important construct for understanding the neurodevelopment and stress-diathesis of schizophrenia. However, as schizotypy nears its sixth decade of application, it is important to acknowledge its impressively rich literature accumulating outside of schizophrenia research. In this article, we make the case that schizotypy has considerable potential as a conceptual framework for understanding individual differences in affective and social functions beyond those directly involved in schizophrenia spectrum pathology. This case is predicated on (a) a burgeoning literature noting anomalies in a wide range of social functioning, affiliative, positive and negative emotional, expressive, and social cognitive systems, (b) practical and methodological features associated with schizotypy research that help facilitate empirical investigation, and (c) close ties to theoretical constructs of central importance to affective and social science (eg, stress diathesis, neural compensation). We highlight recent schizotypy research, ie providing insight into the nature of affective and social systems more generally. This includes current efforts to clarify the neurodevelopmental, neurobiological, and psychological underpinnings of affiliative drives, hedonic capacity, social cognition, and stress responsivity systems. Additionally, we discuss neural compensatory and resilience factors that may mitigate the expression of stress-diathesis and functional outcome, and highlight schizotypy's potential role for understanding cultural determinants of social and affective functions.
Resumo:
Many studies have investigated the impacts that climate change could potentially have on the distribution of plant species, but few have attempted to constrain projections through plant dispersal limitations. Instead, most studies published so far have been using the simplification of considering dispersal as either unlimited or null. However, depending on a species' dispersal capacity, landscape fragmentation, and the rate of climatic change, these assumptions can lead to serious over- or underestimation of a species' future distribution. To quantify the discrepancies between unlimited, realistic, and no dispersal scenarios, we carried out projections of future distribution over the 21st century for 287 mountain plant species in a study area of the Western Swiss Alps. For each species, simulations were run for four dispersal scenarios (unlimited dispersal, no dispersal, realistic dispersal and realistic dispersal with long-distance dispersal events) and under four climate change scenarios. Although simulations accounting for realistic dispersal limitations did significantly differ from those considering dispersal as unlimited or null in terms of projected future distribution, using the unlimited dispersal simplification nevertheless provided good approximations for species extinctions under more moderate climate change scenarios. Overall, simulations accounting for dispersal limitations produced, for our mountainous study area, results that were significantly closer to unlimited dispersal than to no dispersal. Finally, analyzing the temporal pattern of species extinctions over the entire 21st century showed that, due to the possibility of a large number of species shifting their distribution to higher elevation, important species extinctions for our study area might not occur before the 2080-2100 time periods.
Resumo:
The opportunity to reflect broadly on the accomplishments, prospects, and reach of a field may present itself relatively infrequently. Each biennial meeting of the International Biogeography Society showcases ideas solicited and developed largely during the preceding year, by individuals or teams from across the breadth of the discipline. Here, we highlight challenges, developments, and opportunities in biogeography that were summarized at or emerge from that biennial synthesis. We note the realized and potential impact of rapid data accumulation in several fields, a Renaissance for inter-disciplinary research, the importance of recognizing the evolution-ecology continuum across spatial and temporal scales and at different taxonomic, phylogenetic and functional levels, and re-exploration of classical assumptions and hypotheses using new tools. However, advances are taxonomically and geographically biased, key theoretical frameworks await development of tools for handling, or strategies for simplifying, the biological complexity seen in empirical systems. Current threats to biodiversity require unprecedented integration of knowledge and development of predictive capacity which may enable biogeography to unite its descriptive and hypothetico-deductive arms and establish a greater role within and outside academia
Resumo:
BACKGROUND: Exposure to particles (PM) induces adverse health effects (cancer, cardiovascular and pulmonary diseases). A key-role in these adverse effects seems to be played by oxidative stress, which is an excess of reactive oxygen species relative to the amount of reducing species (including antioxidants), the first line of defense against reactive oxygen species. The aim of this study was to document the oxidative stress caused by exposure to respirable particles in vivo, and to test whether exposed workers presented changes in their urinary levels for reducing species.METHODS: Bus depot workers (n = 32) exposed to particles and pollutants (respirable PM4, organic and elemental carbon, particulate metal content, polycyclic aromatic hydrocarbons, NOx, O3) were surveyed over two consecutive days. We collected urine samples before and after each shift, and quantified an oxidative stress biomarker (8-hydroxy-2'-deoxyguanosine), the reducing capacity and a biomarker of PAH exposure (1-hydroxypyrene). We used a linear mixed model to test for associations between the oxidative stress status of the workers and their particle exposure as well as with their urinary level of reducing species.RESULTS: Workers were exposed to low levels of respirable PM4 (range 25-71 μg/m3). However, urinary levels of 8-hydroxy-2'-deoxyguanosine increased significantly within each shift and between both days for non-smokers. The between-day increase was significantly correlated (p < 0.001) with the concentrations of organic carbon, NOx, and the particulate copper content. The within-shift increase in 8OHdG was highly correlated to an increase of the urinary reducing capacity (Spearman ρ = 0.59, p < 0.0001).CONCLUSIONS: These findings confirm that exposure to components associated to respirable particulate matter causes a systemic oxidative stress, as measured with the urinary 8OHdG. The strong association observed between urinary 8OHdG with the reducing capacity is suggestive of protective or other mechanisms, including circadian effects. Additional investigations should be performed to understand these observations.
Resumo:
The activation of an apo-cytochrome c-specific T cell clone was found to differ, depending on the antigen-presenting cell population. Whereas total syngeneic spleen cells and bone marrow macrophages could be shown to trigger proliferation, IL 2, and MAF production by the T cell clone, a B cell lymphoma only induced MAF secretion. Further studies demonstrated that this effect was not due to a different antigen processing by the B lymphoma or to limiting amounts of Ia and antigen molecules on the B lymphoma cell surface. The dissociation of induction of MAF production from IL-2 production/proliferation found with the different antigen-presenting cells indicates strongly that molecules other than Ia and antigen may be required for the complete functional activation of antigen-specific T cell clones.
Resumo:
The metabolic balance method was performed on three men to investigate the fate of large excesses of carbohydrate. Glycogen stores, which were first depleted by diet (3 d, 8.35 +/- 0.27 MJ [1994 +/- 65 kcal] decreasing to 5.70 +/- 1.03 MJ [1361 +/- 247 kcal], 15% protein, 75% fat, 10% carbohydrate) and exercise, were repleted during 7 d carbohydrate overfeeding (11% protein, 3% fat, and 86% carbohydrate) providing 15.25 +/- 1.10 MJ (3642 +/- 263 kcal) on the first day, increasing progressively to 20.64 +/- 1.30 MJ (4930 +/- 311 kcal) on the last day of overfeeding. Glycogen depletion was again accomplished with 2 d of carbohydrate restriction (2.52 MJ/d [602 kcal/d], 85% protein, and 15% fat). Glycogen storage capacity in man is approximately 15 g/kg body weight and can accommodate a gain of approximately 500 g before net lipid synthesis contributes to increasing body fat mass. When the glycogen stores are saturated, massive intakes of carbohydrate are disposed of by high carbohydrate-oxidation rates and substantial de novo lipid synthesis (150 g lipid/d using approximately 475 g CHO/d) without postabsorptive hyperglycemia.
Resumo:
BACKGROUND: Assessment of capacity to consent to treatment is an important legal and ethical issue in daily medical practice. In this study we carefully evaluated the capacity to consent to treatment in patients admitted to an acute medical ward using an assessment by members of the medical team, the specific Silberfeld's score, the MMSE and an assessment by a senior psychiatrist. METHODS: Over a 3 month period, 195 consecutive patients of an internal medicine ward in a university hospital were included and their capacity to consent was evaluated within 72 hours of admission. RESULTS: Among the 195 patients, 38 were incapable of consenting to treatment (unconscious patients or severe cognitive impairment) and 14 were considered as incapable of consenting by the psychiatrist (prevalence of incapacity to consent of 26.7%). Agreement between the psychiatrist's evaluation and the Silberfeld questionnaire was poor (sensitivity 35.7%, specificity 91.6%). Experienced clinicians showed a higher agreement (sensitivity 57.1%, specificity 96.5%). A decision shared by residents, chief residents and nurses was the best predictor for agreement with the psychiatric assessment (sensitivity 78.6%, specificity 94.3%). CONCLUSION: Prevalence of incapacity to consent to treatment in patients admitted to an acute internal medicine ward is high. While the standardized Silberfeld questionnaire and the MMSE are not appropriate for the evaluation of the capacity to consent in this setting, an assessment by the multidisciplinary medical team concurs with the evaluation by a senior psychiatrist.