959 resultados para Curves of progress of diseases
Resumo:
We present optical spectroscopy of MWC 656 and MWC 148, the proposed optical counterparts of the gamma-ray sources AGL J2241+4454 and HESS J0632+0 57, respectively. The main parameters of the Halpha emission line (EW, FWHM and centroid velocity) in these stars are modulated on the proposed orbital periods of 60.37 and 321 days, respectively. These modulations are likely produced by the resonant interaction of the Be discs with compact stars in eccentric orbits. We also present radial velocity curves of the optical stars folded on the above periods and obtain the first orbital elements of the two gamma-ray sources thus confirming their binary nature. Our orbital solution support eccentricities e~0.4 and 0.83+-0.08 for MWC 656 and MWC 148, respectively. Further, our orbital elements imply that the X-ray outbursts in HESS J0632+057/MWC 148 are delayed ~0.3 orbital phases after periastron passage, similarly to the case of LS I +61 303. In addition, the optical photometric light curve maxima in AGL J2241+4454/MWC 656 occur ~0.25 phases passed periastron, similar to what is seen in LS I +61 303. We also find that the orbital eccentricity is correlated with orbital period for the known gamma-ray binaries. This is explained by the fact that small stellar separations are required for the efficient triggering of VHE radiation. Another correlation between the EW of Halpha and orbital period is also observed, similarly to the case of Be/X-ray binaries. These correlations are useful to provide estimates of the key orbital parameters Porb and e from the Halpha line in future Be gamma-ray binary candidates.
Resumo:
Indoleamine 2,3-dioxygenase (IDO) is an important therapeutic target for the treatment of diseases such as cancer that involve pathological immune escape. We have used the evolutionary docking algorithm EADock to design new inhibitors of this enzyme. First, we investigated the modes of binding of all known IDO inhibitors. On the basis of the observed docked conformations, we developed a pharmacophore model, which was then used to devise new compounds to be tested for IDO inhibition. We also used a fragment-based approach to design and to optimize small organic molecule inhibitors. Both approaches yielded several new low-molecular weight inhibitor scaffolds, the most active being of nanomolar potency in an enzymatic assay. Cellular assays confirmed the potential biological relevance of four different scaffolds.
Resumo:
CONTEXT AND OBJECTIVES: A multicentric study was set up to assess the feasibility for Swiss cancer registries of actively retrieving 3 additional variables of epidemiological and a etiological relevance for melanoma, and of potential use for the evaluation of prevention campaigns. MATERIAL AND METHODS: The skin type, family history of melanoma and precise anatomical site were retrieved for melanoma cases registered in 5 Swiss cantons (Neuchâtel, St-Gall and Appenzell, Vaud and Wallis) over 3 to 6 consecutive years (1995-2002). Data were obtained via a short questionnaire administered by the physicians - mostly dermatologists - who originally excised the lesions. As the detailed body site was routinely collected in Ticino, data from this Cancer Registry were included in the body site analysis. Relative melanoma density (RMD) was computed by the ratio of observed to expected numbers of melanomas allowing for body site surface areas, and further adjusted for site-specific melanocyte density. RESULTS: Of the 1,645 questionnaires sent, 1,420 (86.3%) were returned. The detailed cutaneous site and skin type were reliably obtained for 84.7% and 78.7% of questionnaires, and family history was known in 76% of instances. Prevalence of sun-sensitive subjects and patients with melanoma affected first-degree relatives, two target groups for early detection and surveillance campaigns were 54.1% and 3.4%, respectively. After translation into the 4th digit of the International Classification of Diseases for Oncology, the anatomical site codes from printed (original information) and pictorial support (body chart from the questionnaire) concurred for 94.6% of lesions. Discrepancies occurred mostly for lesions on the upper, outer part of the shoulder for which the clinician's textual description was "shoulder blade". This differential misclassification suggests under-estimation by about 10% of melanomas of the upper limbs and an over-estimation of 5% for truncal melanomas. Sites of highest melanoma risk were the face, the shoulder and the upper arm for sexes, the back for men and the leg for women. Three major features of this series were: (1) an unexpectedly high RMD for the face in women (6.2 vs 4.2 in men), (2) the absence of a male predominance for melanomas on the ears, and (3) for the upper limbs, a steady gradient of increasing melanoma density with increasing proximity to the trunk, regardless of sex. DISCUSSION AND CONCLUSION: The feasibility of retrieving the skin type, the precise anatomical location and family history of melanoma in a reliable manner was demonstrated thanks to the collaboration of Swiss dermatologists. Use of a schematic body drawing improves the quality of the anatomical site data and facilitate the reporting task of doctors. Age and sex patterns of RMD paralleled general indicators of sun exposure and behaviour, except for the hand (RMD=0.2). These Swiss results support some site or sun exposure specificity in the aetiology of melanoma.
Resumo:
Paul Ehrlich's inspired concept of 'magic bullets' for the cure of diseases has been revitalized by recent advances in immunology1. In particular, the development of cell fusion technology allowing the production of monoclonal antibodies (Mabs) with exquisite specificities2 triggered new hopes that we may now have the perfect carrier molecules with which to deliver cytotoxic drugs3 or toxins4 to the hidden cancer cells. This article reviews data on one aspect of the magic bullet concept, the use of radiolabelled antibodies as tracers for tumour localization. It will also discuss the very recent clinical use of 131I-labelled Mabs against carcinoembryonic antigen (CEA)5 to detect carcinoma either by conventional external photoscanning or by single photon emission computerized tomography (SPELT). This alliance of the most modern tools from immunology (Mabs) and nuclear medicine (SPELT) appears promising as a way to improve the sensitivity of 'immunoscintigraphy'. However, this approach is not yet ready, for widespread clinical use.
Resumo:
SLC26A2-related dysplasias encompass a spectrum of diseases: from lethal achondrogenesis type 1B (ACG1B; MIM #600972) and atelosteogenesis type 2 (AO2; MIM #256050) to classical diastrophic dysplasia (cDTD; MIM #222600) and recessive multiple epiphyseal dysplasia (rMED; MIM #226900). This study aimed at characterizing clinically, radiologically and molecularly 14 patients affected by non-lethal SLC26A2-related dysplasias and at evaluating genotype-phenotype correlation. Phenotypically, eight patients were classified as cDTD, four patients as rMED and two patients had an intermediate phenotype (mild DTD - mDTD, previously 'DTD variant'). The Arg279Trp mutation was present in all patients, either in homozygosity (resulting in rMED) or in compound heterozygosity with the known severe alleles Arg178Ter or Asn425Asp (resulting in DTD) or with the mutation c.727-1G>C (causing mDTD). The 'Finnish mutation', c.-26+2T>C, and the p.Cys653Ser, both frequent mutations in non-Portuguese populations, were not identified in any of the patients of our cohort and are probably very rare in the Portuguese population. A targeted mutation analysis for p.Arg279Trp and p.Arg178Ter in the Portuguese population allows the identification of approximately 90% of the pathogenic alleles.
Resumo:
Many organelles exist in an equilibrium of fragmentation into smaller units and fusion into larger structures, which is coordinated with cell division, the increase in cell mass, and envi¬ronmental conditions. In yeast cells, organelle homeostasis can be studied using the yeast vacuole (lysosome) as a model system. Yeast vacuoles are the main compartment for degrada¬tion of cellular proteins and storage of nutrients, ions and metabolites. Fission and fusion of vacuoles can be induced by hyper- and hypotonic shock in vivo, respectively, and have also been reconstituted in vitro using isolated vacuoles. The conserved serine/threonine kinase TOR (target of rapamycin) is a central nutrient sensor and regulates cell growth and metabolism. In yeast, there are two TOR proteins, Torlp and Tor2p, which are part of larger protein complexes, TORCI and TORC2. Only TORCI is rapamycin-sensitive. Disregulation of TOR signaling is linked to a multitude of diseases in humans, e.g. cancer, neurodegenerative diseases and metabolic syndrome. It has been shown that TORCI localizes to the vacuole membrane, and recent findings of our laboratory demonstrated that TORCI positively regulates vacuole fragmentation. This suggests that the fragmentation machinery should contain target proteins phosphorylated by TORCI. I explored the rapamycin-and fission-dependent vacuolar phosphoproteome during frag¬mentation, using a label-free mass-spectrometry approach. I identified many vacuolar factors whose phosphorylation was downregulated in a TORCI- and fission-dependent manner. Among them were known protein complexes that are functionally linked to fission or fusion, like the HOPS, VTC and FAB1 complexes. Hence, TORCI-dependent phosphorylations might positively regulate vacuole fission. Several candidates were chosen for detailed microscopic analysis of in vivo vacuole frag-mentation, using deletion mutants. I was able to identify novel factors not previously linked to fission phenotypes, e.g. the SEA complex, Pib2, and several vacuolar amino acid transporters. Transport of neutral and basic amino acids across the membrane seems to control vacuole fission, possibly via TORCI. I analyzed vacuolar fluxes of amino acids in wildtype yeast cells and found evidence for a selective vacuolar export of basic amino acids upon hyperosmotic stress. This leads me to propose a model where vacuolar export of amino acids is necessary to reshape the organelle under salt stress. - Le nombre et la taille de certaines organelles peut être déterminé par un équilibre entre la fragmentation qui produit des unités plus petites et la fusion qui génère des structures plus larges. Cet équilibre est coordonné avec la division cellulaire, l'augmentation de la masse cellulaire, et les conditions environnementales. Dans des cellules de levure, l'homéostasie des organelles peut être étudié à l'aide d'un système modèle, la vacuole de levure (lysosome). Les vacuoles constituent le principal compartiment de la dégradation des protéines et de stockage des nutriments, des ions et des métabolites. La fragmentation et la fusion des vacuoles peuvent être respectivement induites par un traitement hyper- ou hypo-tonique dans les cellules vivantes. Ces processus ont également été reconstitués in vitro en utilisant des vacuoles isolées. La sérine/thréonine kinase conservée TOR (target of rapamycin/cible de la rapamycine) est un senseur de nutriments majeur qui régule la croissance cellulaire et le métabolisme. Chez la levure, il existe deux protéines TOR, Torlp et Tor2p, qui sont les constituants de plus grands complexes de protéines, TORCI et TORC2. TORCI est spécifiquement inhibé par la rapamycine. Une dysrégulation de la signalisation de TOR est liée à une multitude de maladies chez l'homme comme le cancer, les maladies neurodégénératives et le syndrome métabolique. Il a été montré que TORCI se localise à la membrane vacuolaire et les découvertes récentes de notre laboratoire ont montré que TORCI régule positivement la fragmentation de la vacuole. Ceci suggère que le mécanisme de fragmentation doit être contrôlé par la phosphorylation de certaines protéines cibles de TORCI. J'ai exploré le phosphoprotéome vacuolaire lors de la fragmentation, en présence ou absence de rapamycine et dans des conditions provoquant la fragmentation des organelles. La méthode choisie pour réaliser la première partie de ce projet a été la spectrométrie de masse différentielle sans marquage. J'ai ainsi identifié plusieurs facteurs vacuolaires dont la phosphorylation est régulée d'une manière dépendante de TORCI et de la fragmentation. Parmi ces facteurs, des complexes protéiques connus qui sont fonctionnellement liées à fragmentation ou la fusion, comme les complexes HOPS, VTC et FAB1 ont été mis en évidence. Par conséquent, la phosphorylation dépendante de TORCI peut réguler positivement la fragmentation des vacuoles. Plusieurs candidats ont été choisis pour une analyse microscopique détaillée de la fragmentation vacuolaire in vivo en utilisant des mutants de délétion. J'ai été en mesure d'identifier de nouveaux facteurs qui n'avaient pas été encore associés à des phénotypes de fragmentation tels que les complexes SEA, Pib2p, ainsi que plusieurs transporteurs vacuolaires d'acides aminés. Le transport des acides aminés à travers la membrane semble contrôler la fragmentation de la vacuole. Puisque ces transporteurs sont phosphorylés par TORCI, ces résultats semblent confirmer la
Resumo:
Ces dernières années, de nombreuses recherches ont mis en évidence les effets toxiques des micropolluants organiques pour les espèces de nos lacs et rivières. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, alors que les organismes sont exposés tous les jours à des milliers de substances en mélange. Or les effets de ces cocktails ne sont pas négligeables. Cette thèse de doctorat s'est ainsi intéressée aux modèles permettant de prédire le risque environnemental de ces cocktails pour le milieu aquatique. Le principal objectif a été d'évaluer le risque écologique des mélanges de substances chimiques mesurées dans le Léman, mais aussi d'apporter un regard critique sur les méthodologies utilisées afin de proposer certaines adaptations pour une meilleure estimation du risque. Dans la première partie de ce travail, le risque des mélanges de pesticides et médicaments pour le Rhône et pour le Léman a été établi en utilisant des approches envisagées notamment dans la législation européenne. Il s'agit d'approches de « screening », c'est-à-dire permettant une évaluation générale du risque des mélanges. Une telle approche permet de mettre en évidence les substances les plus problématiques, c'est-à-dire contribuant le plus à la toxicité du mélange. Dans notre cas, il s'agit essentiellement de 4 pesticides. L'étude met également en évidence que toutes les substances, même en trace infime, contribuent à l'effet du mélange. Cette constatation a des implications en terme de gestion de l'environnement. En effet, ceci implique qu'il faut réduire toutes les sources de polluants, et pas seulement les plus problématiques. Mais l'approche proposée présente également un biais important au niveau conceptuel, ce qui rend son utilisation discutable, en dehors d'un screening, et nécessiterait une adaptation au niveau des facteurs de sécurité employés. Dans une deuxième partie, l'étude s'est portée sur l'utilisation des modèles de mélanges dans le calcul de risque environnemental. En effet, les modèles de mélanges ont été développés et validés espèce par espèce, et non pour une évaluation sur l'écosystème en entier. Leur utilisation devrait donc passer par un calcul par espèce, ce qui est rarement fait dû au manque de données écotoxicologiques à disposition. Le but a été donc de comparer, avec des valeurs générées aléatoirement, le calcul de risque effectué selon une méthode rigoureuse, espèce par espèce, avec celui effectué classiquement où les modèles sont appliqués sur l'ensemble de la communauté sans tenir compte des variations inter-espèces. Les résultats sont dans la majorité des cas similaires, ce qui valide l'approche utilisée traditionnellement. En revanche, ce travail a permis de déterminer certains cas où l'application classique peut conduire à une sous- ou sur-estimation du risque. Enfin, une dernière partie de cette thèse s'est intéressée à l'influence que les cocktails de micropolluants ont pu avoir sur les communautés in situ. Pour ce faire, une approche en deux temps a été adoptée. Tout d'abord la toxicité de quatorze herbicides détectés dans le Léman a été déterminée. Sur la période étudiée, de 2004 à 2009, cette toxicité due aux herbicides a diminué, passant de 4% d'espèces affectées à moins de 1%. Ensuite, la question était de savoir si cette diminution de toxicité avait un impact sur le développement de certaines espèces au sein de la communauté des algues. Pour ce faire, l'utilisation statistique a permis d'isoler d'autres facteurs pouvant avoir une influence sur la flore, comme la température de l'eau ou la présence de phosphates, et ainsi de constater quelles espèces se sont révélées avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps. Fait intéressant, une partie d'entre-elles avait déjà montré des comportements similaires dans des études en mésocosmes. En conclusion, ce travail montre qu'il existe des modèles robustes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques, et qu'ils peuvent être utilisés pour expliquer le rôle des substances dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application. - Depuis plusieurs années, les risques que posent les micropolluants organiques pour le milieu aquatique préoccupent grandement les scientifiques ainsi que notre société. En effet, de nombreuses recherches ont mis en évidence les effets toxiques que peuvent avoir ces substances chimiques sur les espèces de nos lacs et rivières, quand elles se retrouvent exposées à des concentrations aiguës ou chroniques. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, c'est à dire considérées séparément. Actuellement, il en est de même dans les procédures de régulation européennes, concernant la partie évaluation du risque pour l'environnement d'une substance. Or, les organismes sont exposés tous les jours à des milliers de substances en mélange, et les effets de ces "cocktails" ne sont pas négligeables. L'évaluation du risque écologique que pose ces mélanges de substances doit donc être abordé par de la manière la plus appropriée et la plus fiable possible. Dans la première partie de cette thèse, nous nous sommes intéressés aux méthodes actuellement envisagées à être intégrées dans les législations européennes pour l'évaluation du risque des mélanges pour le milieu aquatique. Ces méthodes sont basées sur le modèle d'addition des concentrations, avec l'utilisation des valeurs de concentrations des substances estimées sans effet dans le milieu (PNEC), ou à partir des valeurs des concentrations d'effet (CE50) sur certaines espèces d'un niveau trophique avec la prise en compte de facteurs de sécurité. Nous avons appliqué ces méthodes à deux cas spécifiques, le lac Léman et le Rhône situés en Suisse, et discuté les résultats de ces applications. Ces premières étapes d'évaluation ont montré que le risque des mélanges pour ces cas d'étude atteint rapidement une valeur au dessus d'un seuil critique. Cette valeur atteinte est généralement due à deux ou trois substances principales. Les procédures proposées permettent donc d'identifier les substances les plus problématiques pour lesquelles des mesures de gestion, telles que la réduction de leur entrée dans le milieu aquatique, devraient être envisagées. Cependant, nous avons également constaté que le niveau de risque associé à ces mélanges de substances n'est pas négligeable, même sans tenir compte de ces substances principales. En effet, l'accumulation des substances, même en traces infimes, atteint un seuil critique, ce qui devient plus difficile en terme de gestion du risque. En outre, nous avons souligné un manque de fiabilité dans ces procédures, qui peuvent conduire à des résultats contradictoires en terme de risque. Ceci est lié à l'incompatibilité des facteurs de sécurité utilisés dans les différentes méthodes. Dans la deuxième partie de la thèse, nous avons étudié la fiabilité de méthodes plus avancées dans la prédiction de l'effet des mélanges pour les communautés évoluant dans le système aquatique. Ces méthodes reposent sur le modèle d'addition des concentrations (CA) ou d'addition des réponses (RA) appliqués sur les courbes de distribution de la sensibilité des espèces (SSD) aux substances. En effet, les modèles de mélanges ont été développés et validés pour être appliqués espèce par espèce, et non pas sur plusieurs espèces agrégées simultanément dans les courbes SSD. Nous avons ainsi proposé une procédure plus rigoureuse, pour l'évaluation du risque d'un mélange, qui serait d'appliquer d'abord les modèles CA ou RA à chaque espèce séparément, et, dans une deuxième étape, combiner les résultats afin d'établir une courbe SSD du mélange. Malheureusement, cette méthode n'est pas applicable dans la plupart des cas, car elle nécessite trop de données généralement indisponibles. Par conséquent, nous avons comparé, avec des valeurs générées aléatoirement, le calcul de risque effectué selon cette méthode plus rigoureuse, avec celle effectuée traditionnellement, afin de caractériser la robustesse de cette approche qui consiste à appliquer les modèles de mélange sur les courbes SSD. Nos résultats ont montré que l'utilisation de CA directement sur les SSDs peut conduire à une sous-estimation de la concentration du mélange affectant 5 % ou 50% des espèces, en particulier lorsque les substances présentent un grand écart- type dans leur distribution de la sensibilité des espèces. L'application du modèle RA peut quant à lui conduire à une sur- ou sous-estimations, principalement en fonction de la pente des courbes dose- réponse de chaque espèce composant les SSDs. La sous-estimation avec RA devient potentiellement importante lorsque le rapport entre la EC50 et la EC10 de la courbe dose-réponse des espèces est plus petit que 100. Toutefois, la plupart des substances, selon des cas réels, présentent des données d' écotoxicité qui font que le risque du mélange calculé par la méthode des modèles appliqués directement sur les SSDs reste cohérent et surestimerait plutôt légèrement le risque. Ces résultats valident ainsi l'approche utilisée traditionnellement. Néanmoins, il faut garder à l'esprit cette source d'erreur lorsqu'on procède à une évaluation du risque d'un mélange avec cette méthode traditionnelle, en particulier quand les SSD présentent une distribution des données en dehors des limites déterminées dans cette étude. Enfin, dans la dernière partie de cette thèse, nous avons confronté des prédictions de l'effet de mélange avec des changements biologiques observés dans l'environnement. Dans cette étude, nous avons utilisé des données venant d'un suivi à long terme d'un grand lac européen, le lac Léman, ce qui offrait la possibilité d'évaluer dans quelle mesure la prédiction de la toxicité des mélanges d'herbicide expliquait les changements dans la composition de la communauté phytoplanctonique. Ceci à côté d'autres paramètres classiques de limnologie tels que les nutriments. Pour atteindre cet objectif, nous avons déterminé la toxicité des mélanges sur plusieurs années de 14 herbicides régulièrement détectés dans le lac, en utilisant les modèles CA et RA avec les courbes de distribution de la sensibilité des espèces. Un gradient temporel de toxicité décroissant a pu être constaté de 2004 à 2009. Une analyse de redondance et de redondance partielle, a montré que ce gradient explique une partie significative de la variation de la composition de la communauté phytoplanctonique, même après avoir enlevé l'effet de toutes les autres co-variables. De plus, certaines espèces révélées pour avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps, ont montré des comportements similaires dans des études en mésocosmes. On peut en conclure que la toxicité du mélange herbicide est l'un des paramètres clés pour expliquer les changements de phytoplancton dans le lac Léman. En conclusion, il existe diverses méthodes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques et celui-ci peut jouer un rôle dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application, avant d'utiliser leurs résultats pour la gestion des risques environnementaux. - For several years now, the scientists as well as the society is concerned by the aquatic risk organic micropollutants may pose. Indeed, several researches have shown the toxic effects these substances may induce on organisms living in our lakes or rivers, especially when they are exposed to acute or chronic concentrations. However, most of the studies focused on the toxicity of single compounds, i.e. considered individually. The same also goes in the current European regulations concerning the risk assessment procedures for the environment of these substances. But aquatic organisms are typically exposed every day simultaneously to thousands of organic compounds. The toxic effects resulting of these "cocktails" cannot be neglected. The ecological risk assessment of mixtures of such compounds has therefore to be addressed by scientists in the most reliable and appropriate way. In the first part of this thesis, the procedures currently envisioned for the aquatic mixture risk assessment in European legislations are described. These methodologies are based on the mixture model of concentration addition and the use of the predicted no effect concentrations (PNEC) or effect concentrations (EC50) with assessment factors. These principal approaches were applied to two specific case studies, Lake Geneva and the River Rhône in Switzerland, including a discussion of the outcomes of such applications. These first level assessments showed that the mixture risks for these studied cases exceeded rapidly the critical value. This exceeding is generally due to two or three main substances. The proposed procedures allow therefore the identification of the most problematic substances for which management measures, such as a reduction of the entrance to the aquatic environment, should be envisioned. However, it was also showed that the risk levels associated with mixtures of compounds are not negligible, even without considering these main substances. Indeed, it is the sum of the substances that is problematic, which is more challenging in term of risk management. Moreover, a lack of reliability in the procedures was highlighted, which can lead to contradictory results in terms of risk. This result is linked to the inconsistency in the assessment factors applied in the different methods. In the second part of the thesis, the reliability of the more advanced procedures to predict the mixture effect to communities in the aquatic system were investigated. These established methodologies combine the model of concentration addition (CA) or response addition (RA) with species sensitivity distribution curves (SSD). Indeed, the mixture effect predictions were shown to be consistent only when the mixture models are applied on a single species, and not on several species simultaneously aggregated to SSDs. Hence, A more stringent procedure for mixture risk assessment is proposed, that would be to apply first the CA or RA models to each species separately and, in a second step, to combine the results to build an SSD for a mixture. Unfortunately, this methodology is not applicable in most cases, because it requires large data sets usually not available. Therefore, the differences between the two methodologies were studied with datasets created artificially to characterize the robustness of the traditional approach applying models on species sensitivity distribution. The results showed that the use of CA on SSD directly might lead to underestimations of the mixture concentration affecting 5% or 50% of species, especially when substances present a large standard deviation of the distribution from the sensitivity of the species. The application of RA can lead to over- or underestimates, depending mainly on the slope of the dose-response curves of the individual species. The potential underestimation with RA becomes important when the ratio between the EC50 and the EC10 for the dose-response curve of the species composing the SSD are smaller than 100. However, considering common real cases of ecotoxicity data for substances, the mixture risk calculated by the methodology applying mixture models directly on SSDs remains consistent and would rather slightly overestimate the risk. These results can be used as a theoretical validation of the currently applied methodology. Nevertheless, when assessing the risk of mixtures, one has to keep in mind this source of error with this classical methodology, especially when SSDs present a distribution of the data outside the range determined in this study Finally, in the last part of this thesis, we confronted the mixture effect predictions with biological changes observed in the environment. In this study, long-term monitoring of a European great lake, Lake Geneva, provides the opportunity to assess to what extent the predicted toxicity of herbicide mixtures explains the changes in the composition of the phytoplankton community next to other classical limnology parameters such as nutrients. To reach this goal, the gradient of the mixture toxicity of 14 herbicides regularly detected in the lake was calculated, using concentration addition and response addition models. A decreasing temporal gradient of toxicity was observed from 2004 to 2009. Redundancy analysis and partial redundancy analysis showed that this gradient explains a significant portion of the variation in phytoplankton community composition, even when having removed the effect of all other co-variables. Moreover, some species that were revealed to be influenced positively or negatively, by the decrease of toxicity in the lake over time, showed similar behaviors in mesocosms studies. It could be concluded that the herbicide mixture toxicity is one of the key parameters to explain phytoplankton changes in Lake Geneva. To conclude, different methods exist to predict the risk of mixture in the ecosystems. But their reliability varies depending on the underlying hypotheses. One should therefore carefully consider these hypotheses, as well as the limits of the approaches, before using the results for environmental risk management
Resumo:
ABSTRACT High cost and long time required to determine a retention curve by the conventional methods of the Richards Chamber and Haines Funnel limit its use; therefore, alternative methods to facilitate this routine are needed. The filter paper method to determine the soil water retention curve was evaluated and compared to the conventional method. Undisturbed samples were collected from five different soils. Using a Haines Funnel and Richards Chamber, moisture content was obtained for tensions of 2; 4; 6; 8; 10; 33; 100; 300; 700; and 1,500 kPa. In the filter paper test, the soil matric potential was obtained from the filter-paper calibration equation, and the moisture subsequently determined based on the gravimetric difference. The van Genuchten model was fitted to the observed data of soil matric potential versus moisture. Moisture values of the conventional and the filter paper methods, estimated by the van Genuchten model, were compared. The filter paper method, with R2 of 0.99, can be used to determine water retention curves of agricultural soils as an alternative to the conventional method.
Resumo:
RESUME DESTINE AUX NON SCIENTIFIQUESLe diabète est une maladie associée à un excès de glucose (sucre) dans le sang. Le taux de glucose sanguin augmente lorsque l'action d'une hormone, l'insuline, responsable du transport du glucose du sang vers les tissus de l'organisme diminue, ou lorsque les quantités d'insuline à disposition sont inadéquates.L'une des causes communes entre les deux grands types de diabète connus, le type 1 et le type 2, est la disparition des cellules beta du pancréas, spécialisées dans la sécrétion d'insuline, par mort cellulaire programmée aussi appelée apoptose. Alors que dans le diabète de type 1, la destruction des cellules beta est causée par notre propre système immunitaire, dans le diabète de type 2, la mort de ces cellules, est principalement causée par des concentrations élevées de graisses saturés ou de molécules impliquées dans l'inflammation que l'on rencontre en quantités augmentées chez les personnes obèses. Etant donné l'augmentation épidémique du nombre de personnes obèses de par le monde, on estime que le nombre de personnes diabétiques (dont une majorité sont des diabétiques de type 2), va passer de 171 million en l'an 2000, à 366 million en l'an 2030, expliquant la nécessité absolue de mettre au point de nouvelles stratégies thérapeutique pour combattre cette maladie.L'apoptose est un processus complexe dont la dérégulation induit de nombreuses affections allant du cancer jusqu'au diabète. L'activation de caspase 3, une protéine clé contrôlant la mort cellulaire, était connue pour systématiquement mener à la mort cellulaire programmée. Ces dernières années, notre laboratoire a décrit des mécanismes de survie qui sont activés par caspase 3 et qui expliquent sans doute pourquoi son activation ne mène pas systématiquement à la mort cellulaire. Lorsqu'elle est faiblement activée, caspase 3 clive une autre protéine appelée RasGAP en deux protéines plus courtes dont l'une, appelée le fragment Ν a la particularité de protéger les cellules contre l'apoptose.Durant ma thèse, j'ai été impliqué dans divers projets destinés à mieux comprendre comment le fragment Ν protégeait les cellules contre l'apoptose et à savoir s'il pouvait être utilisé comme outil thérapeutique dans les conditions de survenue d'un diabète expérimental. C'est dans ce but que nous avons créé une souris transgénique, appelée RIP-N, exprimant le fragment Ν spécifiquement dans les cellules beta. Comme attendu, les cellules beta de ces souris étaient plus résistantes à la mort induite par des composés connus pour induire le diabète, comme certaines molécules induisant l'inflammation ou les graisses saturées. Nous avons ensuite pu montrer que les souris RIP-N étaient plus résistantes à la survenue d'un diabète expérimental que ce soit par l'injection d'une drogue induisant l'apoptose des cellules beta, que ce soit dans un fond génétique caractérisé par une attaque spontanée des cellules beta par le système immunitaire ou dans le contexte d'un diabète de type 2 induit par l'obésité. Dans plusieurs des modèles animaux étudiés, nous avons pu montrer que le fragment Ν protégeait les cellules en activant une voie protectrice bien connue impliquant successivement les protéines Ras, PI3K et Akt ainsi qu'en bloquant la capacité d'Akt d'activer le facteur NFKB, connu pour être délétère pour la survie de la cellule beta. La capacité qu'a le fragment Ν d'activer Akt tout en prévenant l'activation de NFKB par Akt est par conséquent particulièrement intéressante dans l'intégration des signaux régulant la mort cellulaire dans le contexte de la survenue d'un diabète.La perspective d'utiliser le fragment Ν comme outil thérapeutique dépendra de notre capacité à activer les signaux protecteurs induits par le fragment Ν depuis l'extérieur de la cellule ou de dériver des peptides perméables aux cellules possédant les propriétés du fragment N.2 SUMMARYDiabetes mellitus is an illness associated with excess blood glucose. Blood glucose levels raise when the action of insulin decreases or when insulin is provided in inappropriate amounts. In type 1 diabetes (T1D) as well as in type 2 diabetes (T2D), the insulin secreting beta cells in the pancreas undergo controlled cell death also called apoptosis. Whereas in T1D, beta cells are killed by the immune system, in T2D, they are killed by several factors, among which are increased blood glucose levels, increased levels of harmful lipids or pro-inflammatory cytokines that are released by the dysfunctional fat tissue of obese people. Given the epidemic increase in the number of obese people throughout the world, the number of diabetic people (a majority of which are type 2 diabetes) is estimated to rise from 171 million affected people in the year 2000 to 366 million in 2030 explaining the absolute requirement for new therapies to fight the disease.Apoptosis is a very complex process whose deregulation leads to a wide range of diseases going from cancer to diabetes. Caspase 3 although known as a key molecule controlling apoptosis, has been shown to have various other functions. In the past few years, our laboratory has described a survival mechanism, that takes place at low caspase activity and that might explain how cells that activate their caspases for reasons other than apoptosis survive. In such conditions, caspase 3 cleaves another protein called RasGAP into two shorter proteins, one of which, called fragment N, protects cells from apoptosis.We decided to check whether fragment Ν could be used as a therapeutical tool in the context of diabetes inducing conditions. We thus derived a transgenic mouse line, called RIP-N, in which the expression of fragment Ν is restricted to beta cells. As expected, the beta cells of these mice were more resistant ex-vivo to cell death induced by diabetes inducing factors. We then showed that the RIP-N transgenic mice were resistant to streptozotocin induced diabetes, a mouse model mimicking type 1 diabetes, which correlated to fewer number of apoptotic beta cells in the pancreas of the transgenic mice compared to their controls. The RIP-N transgene also delayed overt diabetes development in the NOD background, a mouse model of autoimmune type 1 diabetes, and delayed the occurrence of obesity induced hyperglycemia in a mouse model of type 2-like diabetes. Interestingly, fragment Ν was mediating its protection by activating the protective Akt kinase, and by blocking the detrimental NFKB factor. Our future ability to activate the protective signals elicited by fragment Ν from the outside of cells or to derive cell permeable peptides bearing the protective properties of fragment Ν might condition our ability to use this protein as a therapeutic tool.3 RESUMELe diabète est une maladie associée à un excès de glucose plasmatique. La glycémie augmente lorsque l'action de l'insuline diminue ou lorsque les quantités d'insuline à disposition sont inadéquates. Dans le diabète de type 1 (D1) comme dans le diabète de type 2 (D2), les cellules beta du pancréas subissent la mort cellulaire programmée aussi appelée apoptose. Alors que dans le D1 les cellules beta sont tuées par le système immunitaire, dans le D2 elles sont tuées par divers facteurs parmi lesquels on trouve des concentrations élevées de glucose, d'acides gras saturés ou de cytokines pro-inflammatoires qui sont sécrétées en concentrations augmentées par le tissu adipeux dysfonctionnel des personnes obèses. Etant donné l'augmentation épidémique du nombre de personnes obèses de par le monde, on estime que le nombre de personnes diabétiques (dont une majorité sont des diabétiques de type 2), va passer de 171 million en l'an 2000, à 366 million en l'an 2030, justifiant la nécessité absolue de mettre au point de nouvelles stratégies thérapeutique pour combattre cette maladie.L'apoptose est un processus complexe dont la dérégulation induit de nombreuses affections allant du cancer jusqu'au diabète. Caspase 3, bien que connue comme étant une protéine clé contrôlant l'apoptose a bien d'autres fonctions démontrées. Ces dernières années, notre laboratoire a décrit un mécanisme de survie qui est activé lorsque caspase 3 est faiblement activée et qui explique probablement comment des cellules qui ont activé leurs caspases pour une autre raison que l'apoptose peuvent survivre. Dans ces conditions, caspase 3 clive une autre protéine appelée RasGAP en deux protéines plus courtes dont l'une, appelée le fragment Ν a la particularité de protéger les cellules contre l'apoptose.Nous avons donc décidé de vérifier si le fragment Ν pouvait être utilisé comme outil thérapeutique dans les conditions de survenue d'un diabète expérimental. Pour se faire, nous avons créé une souris transgénique, appelée RIP-N, exprimant le fragment Ν spécifiquement dans les cellules beta. Comme attendu, les cellules beta de ces souris étaient plus résistantes ex-vivo à la mort induite par des facteurs pro-diabétogènes. Nous avons ensuite pu montrer que les souris RIP-N étaient plus résistantes à la survenue d'un diabète induit par la streptozotocine, un drogue mimant la survenue d'un D1 et que ceci était corrélée à une diminution du nombre de cellules en apoptose dans le pancréas des souris transgéniques comparé à leurs contrôles. L'expression du transgène a aussi eu pour effet de retarder la survenue d'un diabète franc dans le fond génétique NOD, un modèle génétique de diabète de type 1 auto-immun, ainsi que de retarder la survenue d'une hyperglycémie dans un modèle murin de diabète de type 2 induit par l'obésité. Dans plusieurs des modèles animaux étudiés, nous avons pu montrer que le fragment Ν protégeait les cellules en activant la kinase protectrice Akt ainsi qu'en bloquant le facteur délétère NFKB. La perspective d'utiliser le fragment Ν comme outil thérapeutique dépendra de notre capacité à activer les signaux protecteurs induits par le fragment Ν depuis l'extérieur de la cellule ou de dériver des peptides perméables aux cellules possédant les propriétés du fragment
Resumo:
Indoleamine 2,3-dioxygenase 1 (IDO1) is an important therapeutic target for the treatment of diseases such as cancer that involve pathological immune escape. Starting from the scaffold of our previously discovered IDO1 inhibitor 4-phenyl-1,2,3-triazole, we used computational structure-based methods to design more potent ligands. This approach yielded highly efficient low molecular weight inhibitors, the most active being of nanomolar potency both in an enzymatic and in a cellular assay, while showing no cellular toxicity and a high selectivity for IDO1 over tryptophan 2,3-dioxygenase (TDO). A quantitative structure-activity relationship based on the electrostatic ligand-protein interactions in the docked binding modes and on the quantum chemically derived charges of the triazole ring demonstrated a good explanatory power for the observed activities.
Resumo:
AIMS: To determine the economic burden pertaining to alcohol dependence in Europe. METHODS: Database searching was combined with grey literature searching to identify costs and resource use in Europe relating to alcohol dependence as defined by the Diagnostic and Statistical Manual of Mental Disorders (DSM-IV) or the World Health Organisation's International Classification of Diseases (ICD-10). Searches combined MeSH headings for both economic terms and terms pertaining to alcohol dependence. Relevant outcomes included direct healthcare costs and indirect societal costs. Main resource use outcomes included hospitalization and drug costs. RESULTS: Compared with the number of studies of the burden of alcohol use disorders in general, relatively few focussed specifically on alcohol dependence. Twenty-two studies of variable quality were eligible for inclusion. The direct costs of alcohol dependence in Europe were substantial, the treatment costs for a single alcohol-dependent patient lying within the range euro1591-euro7702 per hospitalization and the annual total direct costs accounting for 0.04-0.31% of an individual country's gross domestic product (GDP). These costs were driven primarily by hospitalization; in contrast, the annual drug costs for alcohol dependence were low. The indirect costs were more substantial than the direct costs, accounting for up to 0.64% of GDP per country annually. Alcohol dependence may be more costly in terms of health costs per patient than alcohol abuse. CONCLUSIONS: This review confirms that alcohol dependence represents a significant burden for European healthcare systems and society. Difficulties in comparing across cost-of-illness studies in this disease area, however, prevent specific estimation of the economic burden.
Resumo:
This paper describes the albedo (r) and estimates of net radiation and global solar irradiance for green beans crop (Phaseolus vulgaris L.), cultivated in greenhouse with cover of polyethylene and field conditions, in Botucatu, SP, Brazil (22º 54' S; 48º 27' W; 850 m). The solar global irradiance (Rg) and solar reflected radiation (Rr) were used to estimate the albedo through the ratio between Rr and Rg. The diurnal curves of albedo were obtained for days with clear sky and partially cloudy conditions, for different phenological stages of the crop. The albedo ranged with the solar elevation, the environment and the phenological stages. The cloudiness range have almost no influence on the albedo diurnal amount. The estimation of radiation were made by linear regression, using the global solar irradiance (Rg) and net short-waves radiation (Rc) as independent variables. All estimates of radiation showed better adjustment for specific phenological periods compared to the entire crop growing cycle. The net radiation in the greenhouse has been estimated by the global solar irradiance measured at field conditions.
Resumo:
The objective of this paper was to describe the radiation and energy balance, during the lettuce (Lactuca sativa, L. cv. Verônica) crop cycle inside a polyethylene greenhouse. The radiation and energy balance was made inside a tunnel greenhouse with polyethylene cover (100 mum) and in an external area, both areas with 35 m². Global, reflected and net radiation, soil heat flux and air temperature (dry and humid) were measured during the crop cycle. A Datalogger, which operated at 1 Hz frequency, storing 5 minutes averages was utilized. The global (K¯) and reflected (K) radiations showed that the average transmission of global radiation (K¯in / K¯ex) was almost constant, near to 79.59%, while the average ratio of reflected radiation (Kin / Kex) was 69.21% with 8.47% standard-deviation. The normalized curves of short-wave net radiation, in relation to the global radiation (K*/ K¯), found for both environments, were almost constant at the beginning of cycle; this relation decreased in the final stage of culture. The normalized relation (Rn/ K¯) was bigger in the external area, about 12%, when the green culture covered the soil surface. The long-wave radiation balance average (L*) was bigger outside, about 50%. The energy balance, estimated in terms of vertical fluxes, showed that, for the external area, in average, 83.07% of total net radiation was converted in latent heat evaporation (LE), and 18% in soil heat flux (G), and 9.96% in sensible heat (H), while inside of the greenhouse, 58.71% of total net radiation was converted in LE, 42.68% in H, and 28.79% in G.
Resumo:
The objective of this study was to develop and validate a scale to assess the diurnal impact of insomnia. The Insomnia Diurnal Impact Scale (IDIS) comprises six items designed to evaluate the daytime effects of insomnia. The sychometric properties of the original scale were analysed in a sample of 172 students, while its ability to differentiate insomniacs and non-insomniacs (according to the International Classification of Diseases (ICD)-10 criteria) was examined in a sample of 79 psychiatric patients and 82 individuals from the community. The psychometric properties of the English version were then analysed in a sample of 44 Englishspeaking participants. The results showed the internal consistency coefficient to be very good (0.86), with testretest reliability at 1 month being 0.79. A single factor explained almost 60% of the variance. Correlation of the IDIS with other scales varied between moderate and high values. Sensitivity was 78% and specificity 57% in the community sample, while the corresponding figures for the psychiatric population were 83% and 63%. Cronbach's ¿ coefficient for the English version reached a value of 0.93. These results indicate that the IDIS shows adequate reliability and validity with both general and psychiatric populations, and also that it can discriminate between the presence and absence of insomnia. The English version presents good preliminary results regarding item-corrected total correlation and internal consistency. In conclusion, the IDIS appears to be a useful tool in the primary care and mental health contexts for assessing insomnia-related diurnal dysfunction.
Resumo:
Introduction Societies of ants, bees, wasps and termites dominate many terrestrial ecosystems (Wilson 1971). Their evolutionary and ecological success is based upon the regulation of internal conflicts (e.g. Ratnieks et al. 2006), control of diseases (e.g. Schmid-Hempel 1998) and individual skills and collective intelligence in resource acquisition, nest building and defence (e.g. Camazine 2001). Individuals in social species can pass on their genes not only directly trough their own offspring, but also indirectly by favouring the reproduction of relatives. The inclusive fitness theory of Hamilton (1963; 1964) provides a powerful explanation for the evolution of reproductive altruism and cooperation in groups with related individuals. The same theory also led to the realization that insect societies are subject to internal conflicts over reproduction. Relatedness of less-than-one is not sufficient to eliminate all incentive for individual selfishness. This would indeed require a relatedness of one, as found among cells of an organism (Hardin 1968; Keller 1999). The challenge for evolutionary biology is to understand how groups can prevent or reduce the selfish exploitation of resources by group members, and how societies with low relatedness are maintained. In social insects the evolutionary shift from single- to multiple queens colonies modified the relatedness structure, the dispersal, and the mode of colony founding (e.g. (Crozier & Pamilo 1996). In ants, the most common, and presumably ancestral mode of reproduction is the emission of winged males and females, which found a new colony independently after mating and dispersal flights (Hölldobler & Wilson 1990). The alternative reproductive tactic for ant queens in multiple-queen colonies (polygyne) is to seek to be re-accepted in their natal colonies, where they may remain as additional reproductives or subsequently disperse on foot with part of the colony (budding) (Bourke & Franks 1995; Crozier & Pamilo 1996; Hölldobler & Wilson 1990). Such ant colonies can contain up to several hundred reproductive queens with an even more numerous workforce (Cherix 1980; Cherix 1983). As a consequence in polygynous ants the relatedness among nestmates is very low, and workers raise brood of queens to which they are only distantly related (Crozier & Pamilo 1996; Queller & Strassmann 1998). Therefore workers could increase their inclusive fitness by preferentially caring for their closest relatives and discriminate against less related or foreign individuals (Keller 1997; Queller & Strassmann 2002; Tarpy et al. 2004). However, the bulk of the evidence suggests that social insects do not behave nepotistically, probably because of the costs entailed by decreased colony efficiency or discrimination errors (Keller 1997). Recently, the consensus that nepotistic behaviour does not occur in insect colonies was challenged by a study in the ant Formica fusca (Hannonen & Sundström 2003b) showing that the reproductive share of queens more closely related to workers increases during brood development. However, this pattern can be explained either by nepotism with workers preferentially rearing the brood of more closely related queens or intrinsic differences in the viability of eggs laid by queens. In the first chapter, we designed an experiment to disentangle nepotism and differences in brood viability. We tested if workers prefer to rear their kin when given the choice between highly related and unrelated brood in the ant F. exsecta. We also looked for differences in egg viability among queens and simulated if such differences in egg viability may mistakenly lead to the conclusion that workers behave nepotistically. The acceptance of queens in polygnous ants raises the question whether the varying degree of relatedness affects their share in reproduction. In such colonies workers should favour nestmate queens over foreign queens. Numerous studies have investigated reproductive skew and partitioning of reproduction among queens (Bourke et al. 1997; Fournier et al. 2004; Fournier & Keller 2001; Hammond et al. 2006; Hannonen & Sundström 2003a; Heinze et al. 2001; Kümmerli & Keller 2007; Langer et al. 2004; Pamilo & Seppä 1994; Ross 1988; Ross 1993; Rüppell et al. 2002), yet almost no information is available on whether differences among queens in their relatedness to other colony members affects their share in reproduction. Such data are necessary to compare the relative reproductive success of dispersing and non-dispersing individuals. Moreover, information on whether there is a difference in reproductive success between resident and dispersing queens is also important for our understanding of the genetic structure of ant colonies and the dynamics of within group conflicts. In chapter two, we created single-queen colonies and then introduced a foreign queens originating from another colony kept under similar conditions in order to estimate the rate of queen acceptance into foreign established colonies, and to quantify the reproductive share of resident and introduced queens. An increasing number of studies have investigated the discrimination ability between ant workers (e.g. Holzer et al. 2006; Pedersen et al. 2006), but few have addressed the recognition and discrimination behaviour of workers towards reproductive individuals entering colonies (Bennett 1988; Brown et al. 2003; Evans 1996; Fortelius et al. 1993; Kikuchi et al. 2007; Rosengren & Pamilo 1986; Stuart et al. 1993; Sundström 1997; Vásquez & Silverman in press). These studies are important, because accepting new queens will generally have a large impact on colony kin structure and inclusive fitness of workers (Heinze & Keller 2000). In chapter three, we examined whether resident workers reject young foreign queens that enter into their nest. We introduced mated queens into their natal nest, a foreign-female producing nest, or a foreign male-producing nest and measured their survival. In addition, we also introduced young virgin and mated queens into their natal nest to examine whether the mating status of the queens influences their survival and acceptance by workers. On top of polgyny, some ant species have evolved an extraordinary social organization called 'unicoloniality' (Hölldobler & Wilson 1977; Pedersen et al. 2006). In unicolonial ants, intercolony borders are absent and workers and queens mix among the physically separated nests, such that nests form one large supercolony. Super-colonies can become very large, so that direct cooperative interactions are impossible between individuals of distant nests. Unicoloniality is an evolutionary paradox and a potential problem for kin selection theory because the mixing of queens and workers between nests leads to extremely low relatedness among nestmates (Bourke & Franks 1995; Crozier & Pamilo 1996; Keller 1995). A better understanding of the evolution and maintenance of unicoloniality requests detailed information on the discrimination behavior, dispersal, population structure, and the scale of competition. Cryptic genetic population structure may provide important information on the relevant scale to be considered when measuring relatedness and the role of kin selection. Theoretical studies have shown that relatedness should be measured at the level of the `economic neighborhood', which is the scale at which intraspecific competition generally takes place (Griffin & West 2002; Kelly 1994; Queller 1994; Taylor 1992). In chapter four, we conducted alarge-scale study to determine whether the unicolonial ant Formica paralugubris forms populations that are organised in discrete supercolonies or whether there is a continuous gradation in the level of aggression that may correlate with genetic isolation by distance and/or spatial distance between nests. In chapter five, we investigated the fine-scale population structure in three populations of F. paralugubris. We have developed mitochondria) markers, which together with the nuclear markers allowed us to detect cryptic genetic clusters of nests, to obtain more precise information on the genetic differentiation within populations, and to separate male and female gene flow. These new data provide important information on the scale to be considered when measuring relatedness in native unicolonial populations.