970 resultados para Frequency-response curves
Resumo:
Addition of insulin, IGF I or IGF II to serum-free cultures of fetal rat brain cells (gestation day 15/16) significantly stimulates DNA synthesis. The dose-response curves show that IGF I is more potent than insulin; half maximal stimulation of [3H]thymidine incorporation is obtained at about 0.4 nM IGF I and 14 nM insulin, respectively. Cultures initiated 2 days later (gestation day 17/18) showed a decreased responsiveness to both peptides. No additive effect was observed after combined addition of both peptides at near-maximal doses. Both peptides show a latency of action of about 12-18 h. In the presence of either IGF or insulin, neuronal as well as glial enzymes are increased, suggesting that neuronal and glial precursor cell division is influenced. IGF I and IGF II interact with a specific binding site for which insulin competes very weakly; however IGF I and IGF II bind with relatively high affinity to the insulin specific binding site. The present results support the hypothesis that both insulin and IGF stimulate mitotic activity by interacting with specific somatomedin receptors and suggest a physiological role of IGF in the developing brain.
Resumo:
Aim This study used data from temperate forest communities to assess: (1) five different stepwise selection methods with generalized additive models, (2) the effect of weighting absences to ensure a prevalence of 0.5, (3) the effect of limiting absences beyond the environmental envelope defined by presences, (4) four different methods for incorporating spatial autocorrelation, and (5) the effect of integrating an interaction factor defined by a regression tree on the residuals of an initial environmental model. Location State of Vaud, western Switzerland. Methods Generalized additive models (GAMs) were fitted using the grasp package (generalized regression analysis and spatial predictions, http://www.cscf.ch/grasp). Results Model selection based on cross-validation appeared to be the best compromise between model stability and performance (parsimony) among the five methods tested. Weighting absences returned models that perform better than models fitted with the original sample prevalence. This appeared to be mainly due to the impact of very low prevalence values on evaluation statistics. Removing zeroes beyond the range of presences on main environmental gradients changed the set of selected predictors, and potentially their response curve shape. Moreover, removing zeroes slightly improved model performance and stability when compared with the baseline model on the same data set. Incorporating a spatial trend predictor improved model performance and stability significantly. Even better models were obtained when including local spatial autocorrelation. A novel approach to include interactions proved to be an efficient way to account for interactions between all predictors at once. Main conclusions Models and spatial predictions of 18 forest communities were significantly improved by using either: (1) cross-validation as a model selection method, (2) weighted absences, (3) limited absences, (4) predictors accounting for spatial autocorrelation, or (5) a factor variable accounting for interactions between all predictors. The final choice of model strategy should depend on the nature of the available data and the specific study aims. Statistical evaluation is useful in searching for the best modelling practice. However, one should not neglect to consider the shapes and interpretability of response curves, as well as the resulting spatial predictions in the final assessment.
Resumo:
Abstract We introduce a label-free technology based on digital holographic microscopy (DHM) with applicability for screening by imaging, and we demonstrate its capability for cytotoxicity assessment using mammalian living cells. For this first high content screening compatible application, we automatized a digital holographic microscope for image acquisition of cells using commercially available 96-well plates. Data generated through both label-free DHM imaging and fluorescence-based methods were in good agreement for cell viability identification and a Z'-factor close to 0.9 was determined, validating the robustness of DHM assay for phenotypic screening. Further, an excellent correlation was obtained between experimental cytotoxicity dose-response curves and known IC values for different toxic compounds. For comparable results, DHM has the major advantages of being label free and close to an order of magnitude faster than automated standard fluorescence microscopy.
Resumo:
It is a well-appreciated fact that in many organisms the process of ageing reacts highly plastically, so that lifespan increases or decreases when the environment changes. The perhaps best-known example of such lifespan plasticity is dietary restriction (DR), a phenomenon whereby reduced food intake without malnutrition extends lifespan (typically at the expense of reduced fecundity) and which has been documented in numerous species, from invertebrates to mammals. For the evolutionary biologist, DR and other cases of lifespan plasticity are examples of a more general phenomenon called phenotypic plasticity, the ability of a single genotype to produce different phenotypes (e.g. lifespan) in response to changes in the environment (e.g. changes in diet). To analyse phenotypic plasticity, evolutionary biologists (and epidemiologists) often use a conceptual and statistical framework based on reaction norms (genotype-specific response curves) and genotype × environment interactions (G × E; differences in the plastic response among genotypes), concepts that biologists who are working on molecular aspects of ageing are usually not familiar with. Here I briefly discuss what has been learned about lifespan plasticity or, more generally, about plasticity of somatic maintenance and survival ability. In particular, I argue that adopting the conceptual framework of reaction norms and G × E interactions, as used by evolutionary biologists, is crucially important for our understanding of the mechanisms underlying DR and other forms of lifespan or survival plasticity.
Resumo:
Peats are an important reserve of humified carbon in terrestrial ecosystems. The interest in the use of humic substances as plant growth promoters is continuously increasing. The objective of this study was to evaluate the bioactivity of alkaline soluble humic substances (HS), humic (HA) and fulvic acids (FA) isolated from peats with different decomposition stages of organic matter (sapric, fibric and hemic) in the Serra do Espinhaço Meridional, state of Minas Gerais. Dose-response curves were established for the number of lateral roots growing from the main plant axis of tomato seedlings. The bioactivity of HA was greatest (highest response in lateral roots at lowest concentration) while FA did not intensify root growth. Both HS and HA stimulated root hair formation. At low concentrations, HS and HA induced root hair formation near the root cap, a typical hormonal imbalance effect in plants. Transgenic tomato with reporter gene DR5::GUS allowed the observation that the auxin-related signalling pathway was involved in root growth promotion by HA.
Resumo:
Vibration-based damage identification (VBDI) techniques have been developed in part to address the problems associated with an aging civil infrastructure. To assess the potential of VBDI as it applies to highway bridges in Iowa, three applications of VBDI techniques were considered in this study: numerical simulation, laboratory structures, and field structures. VBDI techniques were found to be highly capable of locating and quantifying damage in numerical simulations. These same techniques were found to be accurate in locating various types of damage in a laboratory setting with actual structures. Although there is the potential for these techniques to quantify damage in a laboratory setting, the ability of the methods to quantify low-level damage in the laboratory is not robust. When applying these techniques to an actual bridge, it was found that some traditional applications of VBDI methods are capable of describing the global behavior of the structure but are most likely not suited for the identification of typical damage scenarios found in civil infrastructure. Measurement noise, boundary conditions, complications due to substructures and multiple material types, and transducer sensitivity make it very difficult for present VBDI techniques to identify, much less quantify, highly localized damage (such as small cracks and minor changes in thickness). However, while investigating VBDI techniques in the field, it was found that if the frequency-domain response of the structure can be generated from operating traffic load, the structural response can be animated and used to develop a holistic view of the bridge’s response to various automobile loadings. By animating the response of a field bridge, concrete cracking (in the abutment and deck) was correlated with structural motion and problem frequencies (i.e., those that cause significant torsion or tension-compression at beam ends) were identified. Furthermore, a frequency-domain study of operational traffic was used to identify both common and extreme frequencies for a given structure and loading. Common traffic frequencies can be compared to problem frequencies so that cost-effective, preventative solutions (either structural or usage-based) can be developed for a wide range of IDOT bridges. Further work should (1) perfect the process of collecting high-quality operational frequency response data; (2) expand and simplify the process of correlating frequency response animations with damage; and (3) develop efficient, economical, preemptive solutions to common damage types.
Resumo:
A mathematical model describing the behavior of low-resolution Fresnel encoded lenses (LRFEL's) encoded in any low-resolution device (e.g., a spatial light modulator) has recently been developed. From this model, an LRFEL with a short focal length was optimized by our imposing the maximum intensity of light onto the optical axis. With this model, analytical expressions for the light-amplitude distribution, the diffraction efficiency, and the frequency response of the optimized LRFEL's are derived.
Resumo:
Ces dernières années, de nombreuses recherches ont mis en évidence les effets toxiques des micropolluants organiques pour les espèces de nos lacs et rivières. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, alors que les organismes sont exposés tous les jours à des milliers de substances en mélange. Or les effets de ces cocktails ne sont pas négligeables. Cette thèse de doctorat s'est ainsi intéressée aux modèles permettant de prédire le risque environnemental de ces cocktails pour le milieu aquatique. Le principal objectif a été d'évaluer le risque écologique des mélanges de substances chimiques mesurées dans le Léman, mais aussi d'apporter un regard critique sur les méthodologies utilisées afin de proposer certaines adaptations pour une meilleure estimation du risque. Dans la première partie de ce travail, le risque des mélanges de pesticides et médicaments pour le Rhône et pour le Léman a été établi en utilisant des approches envisagées notamment dans la législation européenne. Il s'agit d'approches de « screening », c'est-à-dire permettant une évaluation générale du risque des mélanges. Une telle approche permet de mettre en évidence les substances les plus problématiques, c'est-à-dire contribuant le plus à la toxicité du mélange. Dans notre cas, il s'agit essentiellement de 4 pesticides. L'étude met également en évidence que toutes les substances, même en trace infime, contribuent à l'effet du mélange. Cette constatation a des implications en terme de gestion de l'environnement. En effet, ceci implique qu'il faut réduire toutes les sources de polluants, et pas seulement les plus problématiques. Mais l'approche proposée présente également un biais important au niveau conceptuel, ce qui rend son utilisation discutable, en dehors d'un screening, et nécessiterait une adaptation au niveau des facteurs de sécurité employés. Dans une deuxième partie, l'étude s'est portée sur l'utilisation des modèles de mélanges dans le calcul de risque environnemental. En effet, les modèles de mélanges ont été développés et validés espèce par espèce, et non pour une évaluation sur l'écosystème en entier. Leur utilisation devrait donc passer par un calcul par espèce, ce qui est rarement fait dû au manque de données écotoxicologiques à disposition. Le but a été donc de comparer, avec des valeurs générées aléatoirement, le calcul de risque effectué selon une méthode rigoureuse, espèce par espèce, avec celui effectué classiquement où les modèles sont appliqués sur l'ensemble de la communauté sans tenir compte des variations inter-espèces. Les résultats sont dans la majorité des cas similaires, ce qui valide l'approche utilisée traditionnellement. En revanche, ce travail a permis de déterminer certains cas où l'application classique peut conduire à une sous- ou sur-estimation du risque. Enfin, une dernière partie de cette thèse s'est intéressée à l'influence que les cocktails de micropolluants ont pu avoir sur les communautés in situ. Pour ce faire, une approche en deux temps a été adoptée. Tout d'abord la toxicité de quatorze herbicides détectés dans le Léman a été déterminée. Sur la période étudiée, de 2004 à 2009, cette toxicité due aux herbicides a diminué, passant de 4% d'espèces affectées à moins de 1%. Ensuite, la question était de savoir si cette diminution de toxicité avait un impact sur le développement de certaines espèces au sein de la communauté des algues. Pour ce faire, l'utilisation statistique a permis d'isoler d'autres facteurs pouvant avoir une influence sur la flore, comme la température de l'eau ou la présence de phosphates, et ainsi de constater quelles espèces se sont révélées avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps. Fait intéressant, une partie d'entre-elles avait déjà montré des comportements similaires dans des études en mésocosmes. En conclusion, ce travail montre qu'il existe des modèles robustes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques, et qu'ils peuvent être utilisés pour expliquer le rôle des substances dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application. - Depuis plusieurs années, les risques que posent les micropolluants organiques pour le milieu aquatique préoccupent grandement les scientifiques ainsi que notre société. En effet, de nombreuses recherches ont mis en évidence les effets toxiques que peuvent avoir ces substances chimiques sur les espèces de nos lacs et rivières, quand elles se retrouvent exposées à des concentrations aiguës ou chroniques. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, c'est à dire considérées séparément. Actuellement, il en est de même dans les procédures de régulation européennes, concernant la partie évaluation du risque pour l'environnement d'une substance. Or, les organismes sont exposés tous les jours à des milliers de substances en mélange, et les effets de ces "cocktails" ne sont pas négligeables. L'évaluation du risque écologique que pose ces mélanges de substances doit donc être abordé par de la manière la plus appropriée et la plus fiable possible. Dans la première partie de cette thèse, nous nous sommes intéressés aux méthodes actuellement envisagées à être intégrées dans les législations européennes pour l'évaluation du risque des mélanges pour le milieu aquatique. Ces méthodes sont basées sur le modèle d'addition des concentrations, avec l'utilisation des valeurs de concentrations des substances estimées sans effet dans le milieu (PNEC), ou à partir des valeurs des concentrations d'effet (CE50) sur certaines espèces d'un niveau trophique avec la prise en compte de facteurs de sécurité. Nous avons appliqué ces méthodes à deux cas spécifiques, le lac Léman et le Rhône situés en Suisse, et discuté les résultats de ces applications. Ces premières étapes d'évaluation ont montré que le risque des mélanges pour ces cas d'étude atteint rapidement une valeur au dessus d'un seuil critique. Cette valeur atteinte est généralement due à deux ou trois substances principales. Les procédures proposées permettent donc d'identifier les substances les plus problématiques pour lesquelles des mesures de gestion, telles que la réduction de leur entrée dans le milieu aquatique, devraient être envisagées. Cependant, nous avons également constaté que le niveau de risque associé à ces mélanges de substances n'est pas négligeable, même sans tenir compte de ces substances principales. En effet, l'accumulation des substances, même en traces infimes, atteint un seuil critique, ce qui devient plus difficile en terme de gestion du risque. En outre, nous avons souligné un manque de fiabilité dans ces procédures, qui peuvent conduire à des résultats contradictoires en terme de risque. Ceci est lié à l'incompatibilité des facteurs de sécurité utilisés dans les différentes méthodes. Dans la deuxième partie de la thèse, nous avons étudié la fiabilité de méthodes plus avancées dans la prédiction de l'effet des mélanges pour les communautés évoluant dans le système aquatique. Ces méthodes reposent sur le modèle d'addition des concentrations (CA) ou d'addition des réponses (RA) appliqués sur les courbes de distribution de la sensibilité des espèces (SSD) aux substances. En effet, les modèles de mélanges ont été développés et validés pour être appliqués espèce par espèce, et non pas sur plusieurs espèces agrégées simultanément dans les courbes SSD. Nous avons ainsi proposé une procédure plus rigoureuse, pour l'évaluation du risque d'un mélange, qui serait d'appliquer d'abord les modèles CA ou RA à chaque espèce séparément, et, dans une deuxième étape, combiner les résultats afin d'établir une courbe SSD du mélange. Malheureusement, cette méthode n'est pas applicable dans la plupart des cas, car elle nécessite trop de données généralement indisponibles. Par conséquent, nous avons comparé, avec des valeurs générées aléatoirement, le calcul de risque effectué selon cette méthode plus rigoureuse, avec celle effectuée traditionnellement, afin de caractériser la robustesse de cette approche qui consiste à appliquer les modèles de mélange sur les courbes SSD. Nos résultats ont montré que l'utilisation de CA directement sur les SSDs peut conduire à une sous-estimation de la concentration du mélange affectant 5 % ou 50% des espèces, en particulier lorsque les substances présentent un grand écart- type dans leur distribution de la sensibilité des espèces. L'application du modèle RA peut quant à lui conduire à une sur- ou sous-estimations, principalement en fonction de la pente des courbes dose- réponse de chaque espèce composant les SSDs. La sous-estimation avec RA devient potentiellement importante lorsque le rapport entre la EC50 et la EC10 de la courbe dose-réponse des espèces est plus petit que 100. Toutefois, la plupart des substances, selon des cas réels, présentent des données d' écotoxicité qui font que le risque du mélange calculé par la méthode des modèles appliqués directement sur les SSDs reste cohérent et surestimerait plutôt légèrement le risque. Ces résultats valident ainsi l'approche utilisée traditionnellement. Néanmoins, il faut garder à l'esprit cette source d'erreur lorsqu'on procède à une évaluation du risque d'un mélange avec cette méthode traditionnelle, en particulier quand les SSD présentent une distribution des données en dehors des limites déterminées dans cette étude. Enfin, dans la dernière partie de cette thèse, nous avons confronté des prédictions de l'effet de mélange avec des changements biologiques observés dans l'environnement. Dans cette étude, nous avons utilisé des données venant d'un suivi à long terme d'un grand lac européen, le lac Léman, ce qui offrait la possibilité d'évaluer dans quelle mesure la prédiction de la toxicité des mélanges d'herbicide expliquait les changements dans la composition de la communauté phytoplanctonique. Ceci à côté d'autres paramètres classiques de limnologie tels que les nutriments. Pour atteindre cet objectif, nous avons déterminé la toxicité des mélanges sur plusieurs années de 14 herbicides régulièrement détectés dans le lac, en utilisant les modèles CA et RA avec les courbes de distribution de la sensibilité des espèces. Un gradient temporel de toxicité décroissant a pu être constaté de 2004 à 2009. Une analyse de redondance et de redondance partielle, a montré que ce gradient explique une partie significative de la variation de la composition de la communauté phytoplanctonique, même après avoir enlevé l'effet de toutes les autres co-variables. De plus, certaines espèces révélées pour avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps, ont montré des comportements similaires dans des études en mésocosmes. On peut en conclure que la toxicité du mélange herbicide est l'un des paramètres clés pour expliquer les changements de phytoplancton dans le lac Léman. En conclusion, il existe diverses méthodes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques et celui-ci peut jouer un rôle dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application, avant d'utiliser leurs résultats pour la gestion des risques environnementaux. - For several years now, the scientists as well as the society is concerned by the aquatic risk organic micropollutants may pose. Indeed, several researches have shown the toxic effects these substances may induce on organisms living in our lakes or rivers, especially when they are exposed to acute or chronic concentrations. However, most of the studies focused on the toxicity of single compounds, i.e. considered individually. The same also goes in the current European regulations concerning the risk assessment procedures for the environment of these substances. But aquatic organisms are typically exposed every day simultaneously to thousands of organic compounds. The toxic effects resulting of these "cocktails" cannot be neglected. The ecological risk assessment of mixtures of such compounds has therefore to be addressed by scientists in the most reliable and appropriate way. In the first part of this thesis, the procedures currently envisioned for the aquatic mixture risk assessment in European legislations are described. These methodologies are based on the mixture model of concentration addition and the use of the predicted no effect concentrations (PNEC) or effect concentrations (EC50) with assessment factors. These principal approaches were applied to two specific case studies, Lake Geneva and the River Rhône in Switzerland, including a discussion of the outcomes of such applications. These first level assessments showed that the mixture risks for these studied cases exceeded rapidly the critical value. This exceeding is generally due to two or three main substances. The proposed procedures allow therefore the identification of the most problematic substances for which management measures, such as a reduction of the entrance to the aquatic environment, should be envisioned. However, it was also showed that the risk levels associated with mixtures of compounds are not negligible, even without considering these main substances. Indeed, it is the sum of the substances that is problematic, which is more challenging in term of risk management. Moreover, a lack of reliability in the procedures was highlighted, which can lead to contradictory results in terms of risk. This result is linked to the inconsistency in the assessment factors applied in the different methods. In the second part of the thesis, the reliability of the more advanced procedures to predict the mixture effect to communities in the aquatic system were investigated. These established methodologies combine the model of concentration addition (CA) or response addition (RA) with species sensitivity distribution curves (SSD). Indeed, the mixture effect predictions were shown to be consistent only when the mixture models are applied on a single species, and not on several species simultaneously aggregated to SSDs. Hence, A more stringent procedure for mixture risk assessment is proposed, that would be to apply first the CA or RA models to each species separately and, in a second step, to combine the results to build an SSD for a mixture. Unfortunately, this methodology is not applicable in most cases, because it requires large data sets usually not available. Therefore, the differences between the two methodologies were studied with datasets created artificially to characterize the robustness of the traditional approach applying models on species sensitivity distribution. The results showed that the use of CA on SSD directly might lead to underestimations of the mixture concentration affecting 5% or 50% of species, especially when substances present a large standard deviation of the distribution from the sensitivity of the species. The application of RA can lead to over- or underestimates, depending mainly on the slope of the dose-response curves of the individual species. The potential underestimation with RA becomes important when the ratio between the EC50 and the EC10 for the dose-response curve of the species composing the SSD are smaller than 100. However, considering common real cases of ecotoxicity data for substances, the mixture risk calculated by the methodology applying mixture models directly on SSDs remains consistent and would rather slightly overestimate the risk. These results can be used as a theoretical validation of the currently applied methodology. Nevertheless, when assessing the risk of mixtures, one has to keep in mind this source of error with this classical methodology, especially when SSDs present a distribution of the data outside the range determined in this study Finally, in the last part of this thesis, we confronted the mixture effect predictions with biological changes observed in the environment. In this study, long-term monitoring of a European great lake, Lake Geneva, provides the opportunity to assess to what extent the predicted toxicity of herbicide mixtures explains the changes in the composition of the phytoplankton community next to other classical limnology parameters such as nutrients. To reach this goal, the gradient of the mixture toxicity of 14 herbicides regularly detected in the lake was calculated, using concentration addition and response addition models. A decreasing temporal gradient of toxicity was observed from 2004 to 2009. Redundancy analysis and partial redundancy analysis showed that this gradient explains a significant portion of the variation in phytoplankton community composition, even when having removed the effect of all other co-variables. Moreover, some species that were revealed to be influenced positively or negatively, by the decrease of toxicity in the lake over time, showed similar behaviors in mesocosms studies. It could be concluded that the herbicide mixture toxicity is one of the key parameters to explain phytoplankton changes in Lake Geneva. To conclude, different methods exist to predict the risk of mixture in the ecosystems. But their reliability varies depending on the underlying hypotheses. One should therefore carefully consider these hypotheses, as well as the limits of the approaches, before using the results for environmental risk management
Resumo:
Résumé : La première partie de ce travail de thèse est consacrée au canal à sodium épithélial (ENaC), l'élément clé du transport transépithélial de Na+ dans le néphron distal, le colon et les voies aériennes. Ce canal est impliqué dans certaines formes génétiques d'hypo- et d'hypertension (PHA I, syndrome de Liddle), mais aussi, indirectement, dans la mucoviscidose. La réabsorption transépithéliale de Na+ est principalement régulée par des hormones (aldostérone, vasopressine), mais aussi directement par le Na+, via deux phénomènes distincts, la « feedback inhibition » et la « self-inhibition » (SI). Ce second phénomène est dépendant de la concentration de Na+ extracellulaire, et montre une cinétique rapide (constante de temps d'environ 3 s). Son rôle physiologique serait d'assurer l'homogénéité de la réabsorption de Na+ et d'empêcher que celle-ci soit excessive lorsque les concentrations de Na+ sont élevées. Différents éléments appuient l'hypothèse de la présence d'un site de détection de la concentration du Na+ extracellulaire sur ENaC, gouvernant la SI. L'objectif de ce premier projet est de démontrer l'existence du site de détection impliqué dans la SI et de déterminer ses propriétés physiologiques et sa localisation. Nous avons montré que les caractéristiques de la SI (en termes de sélectivité et affinité ionique) sont différentes des propriétés de conduction du canal. Ainsi, nos résultats confirment l'hypothèse de l'existence d'un site de détection du Na+ (responsable de la transmission de l'information au mécanisme de contrôle de l'ouverture du canal), différent du site de conduction. Par ailleurs, ce site présente une affinité basse et indépendante du voltage pour le Na+ et le Li+ extracellulaires. Le site semble donc être localisé dans le domaine extracellulaire, plutôt que transmembranaire, de la protéine. L'étape suivante consiste alors à localiser précisément le site sur le canal. Des études précédentes, ainsi que des résultats préliminaires récemment obtenus, mettent en avant le rôle dans la self-inhibition du premiers tiers des boucles extracellulaires des sous-unités α et γ du canal. Le second projet tire son origine des limitations de la méthode classique pour l'étude des canaux ioniques, après expression dans les ovocytes de Xenopus laevis, par la méthode du voltage-clamp à deux électrodes, en particulier les limitations dues à la lenteur des échanges de solutions. En outre, cette méthode souffre de nombreux désavantages (manipulations délicates et peu rapides, grands volumes de solution requis). Plusieurs systèmes améliorés ont été élaborés, mais aucun ne corrige tous les désavantages de la méthode classique Ainsi, l'objectif ici est le développement d'un système, pour l'étude électrophysiologique sur ovocytes, présentant les caractéristiques suivantes : manipulation des cellules facilitée et réduite, volumes de solution de perfusion faibles et vitesse rapide d'échange de la perfusion. Un microsystème intégré sur une puce a été élaboré. Ces capacités de mesure ont été testées en utilisant des ovocytes exprimant ENaC. Des résultats similaires (courbes IV, courbes dose-réponse au benzamil) à ceux obtenus avec le système traditionnel ont été enregistrés avec le microsystème. Le temps d'échange de solution a été estimé à ~20 ms et des temps effectifs de changement ont été déterminés comme étant 8 fois plus court avec le nouveau système comparé au classique. Finalement, la SI a été étudiée et il apparaît que sa cinétique est 3 fois plus rapide que ce qui a été estimé précédemment avec le système traditionnel et son amplitude de 10 à 20 % plus importante. Le nouveau microsystème intégré apparaît donc comme adapté à la mesure électrophysiologique sur ovocytes de Xenopus, et possèdent des caractéristiques appropriées à l'étude de phénomènes à cinétique rapide, mais aussi à des applications de type « high throughput screening ». Summary : The first part of the thesis is related to the Epithelial Sodium Channel (ENaC), which is a key component of the transepithelial Na+ transport in the distal nephron, colon and airways. This channel is involved in hypo- and hypertensive syndrome (PHA I, Liddle syndrome), but also indirectly in cystic fibrosis. The transepithelial reabsorption of Na+ is mainly regulated by hormones (aldosterone, vasopressin), but also directly by Na+ itself, via two distinct phenomena, feedback inhibition and self-inhibition. This latter phenomenon is dependant on the extracellular Na+ concentration and has rapid kinetics (time constant of about 3 s). Its physiological role would be to prevent excessive Na+ reabsorption and ensure this reabsorption is homogenous. Several pieces of evidence enable to propose the hypothesis of an extracellular Na+ sensing site on ENaC, governing self-inhibition. The aim of this first project is to demonstrate the existence of the sensing site involved in self-inhibition and to determine its physiological properties and localization. We show self-inhibition characteristics (ionic selectivity and affinity) are different from the conducting properties of the channel. Our results support thus the hypothesis that the Na+ sensing site (responsible of the transmission of the information about the extracellular Na+ concentration to the channel gating mechanism), is different from the channel conduction site. Furthermore, the site has a low and voltage-insensitive affinity for extracellular Na+ or Li+. This site appears to be located in the extracellular domain rather than in the transmembrane part of the channel protein. The next step is then to precisely localize the site on the channel. Some previous studies and preliminary results we recently obtained highlight the role of the first third of the extracellular loop of the α and γ subunits of the channel in self-inhibition. The second project originates in the limitation of the classical two-electrode voltageclamp system classically used to study ion channels expressed in Xenopus /aevis oocytes, in particular limitations related to the slow solution exchange time. In addition, this technique undergoes several drawbacks (delicate manipulations, time consumption volumes). Several improved systems have been built up, but none corrected all these detriments. The aim of this second study is thus to develop a system for electrophysiological study on oocytes featuring an easy and reduced cell handling, small necessary perfusion volumes and fast fluidic exchange. This last feature establishes the link with the first project, as it should enable to improve the kinetics analysis of self-inhibition. A PDMS chip-based microsystem has been elaborated. Its electrophysiological measurement abilities have been tested using oocytes expressing ENaC. Similar measurements (IV curves of benzamil-sensitive currents, benzamil dose-response curves) have been obtained with this system, compared to the traditional one. The solution exchange time has been estimated at N20 ms and effective exchange times (on inward currents) have been determined as 8 times faster with the novel system compared to the classical one. Finally, self-inhibition has been studied and it appears its kinetics is 3 times faster and its amplitude 10 to 20 % higher than what has been previously estimated with the traditional system. The novel integrated microsystem appears therefore to be convenient for electrophysiological measurement on Xenopus oocytes, and displays features suitable for the study of fast kinetics phenomenon, but also high throughput screening applications. Résumé destiné large public : Le corps humain est composé d'organes, eux-mêmes constitués d'un très grand nombre de cellules. Chaque cellule possède une paroi appelée membrane cellulaire qui sépare l'intérieur de cette cellule (milieu intracellulaire) du liquide (milieu extracellulaire) dans lequel elle baigne. Le maintien de la composition stable de ce milieu extracellulaire est essentiel pour la survie des cellules et donc de l'organisme. Le sodium est un des composants majeurs du milieu extracellulaire, sa quantité dans celui-ci doit être particulièrement contrôlée. Le sodium joue en effet un rôle important : il conditionne le volume de ce liquide extracellulaire, donc, par la même, du sang. Ainsi, une grande quantité de sodium présente dans ce milieu va de paire avec une augmentation du volume sanguin, ce qui conduit l'organisme à souffrir d'hypertension. On se rend donc compte qu'il est très important de contrôler la quantité de sodium présente dans les différents liquides de l'organisme. Les apports de sodium dans l'organisme se font par l'alimentation, mais la quantité de sodium présente dans le liquide extracellulaire est contrôlée de manière très précise par le rein. Au niveau de cet organe, on appelle urine primaire le liquide résultant de la filtration du sang. Elle contient de nombreuses substances, des petites molécules, dont l'organisme a besoin (sodium, glucose...), qui sont ensuite récupérées dans l'organe. A la sortie du rein, l'urine finale ne contient plus que l'excédent de ces substances, ainsi que des déchets à éliminer. La récupération du sodium est plus ou moins importante, en fonction des ajustements à apporter à la quantité présente dans le liquide extracellulaire. Elle a lieu grâce à la présence de protéines, dans les membranes des cellules du rein, capables de le transporter et de le faire transiter de l'urine primaire vers le liquide extracellulaire, qui assurera ensuite sa distribution dans l'ensemble de l'organisme. Parmi ces protéines « transporteurs de sodium », nous nous intéressons à une protéine en particulier, appelée ENaC. Il a été montré qu'elle jouait un rôle important dans cette récupération de sodium, elle est en effet impliquée dans des maladies génétiques conduisant à l'hypo- ou à l'hypertension. De précédents travaux ont montré que lorsque le sodium est présent en faible quantité dans l'urine primaire, cette protéine permet d'en récupérer une très grande partie. A l'inverse, lorsque cette quantité de sodium dans l'urine primaire est importante, sa récupération par le biais d'ENaC est réduite. On parle alors d'autorégulation : la protéine elle-même est capable d'adapter son activité de transport en fonction des conditions. Ce phénomène d'autorégulation constitue a priori un mécanisme préventif visant à éviter une trop grande récupération de sodium, limitant ainsi les risques d'hypertension. La première partie de ce travail de thèse a ainsi consisté à clarifier le mécanisme d'autorégulation de la protéine ENaC. Ce phénomène se caractérise en particulier par sa grande vitesse, ce qui le rend difficile à étudier par les méthodes traditionnelles. Nous avons donc, dans une deuxième partie, développé un nouveau système permettant de mieux décrire et analyser cette « autorégulation » d'ENaC. Ce second projet a été mené en collaboration avec l'équipe de Martin Gijs de l'EPFL.
Resumo:
Abstract We introduce a label-free technology based on digital holographic microscopy (DHM) with applicability for screening by imaging, and we demonstrate its capability for cytotoxicity assessment using mammalian living cells. For this first high content screening compatible application, we automatized a digital holographic microscope for image acquisition of cells using commercially available 96-well plates. Data generated through both label-free DHM imaging and fluorescence-based methods were in good agreement for cell viability identification and a Z'-factor close to 0.9 was determined, validating the robustness of DHM assay for phenotypic screening. Further, an excellent correlation was obtained between experimental cytotoxicity dose-response curves and known IC values for different toxic compounds. For comparable results, DHM has the major advantages of being label free and close to an order of magnitude faster than automated standard fluorescence microscopy.
Resumo:
The remaining phosphorus (Prem) has been used for estimating the phosphorus buffer capacity (PBC) of soils of some Brazilian regions. Furthermore, the remaining phosphorus can also be used for estimating P, S and Zn soil critical levels determined with PBC-sensible extractants and for defining P and S levels to be used not only in P and S adsorption studies but also for the establishment of P and S response curves. The objective of this work was to evaluate the effects of soil clay content and clay mineralogy on Prem and its relationship with pH values measured in saturated NaF solution (pH NaF). Ammonium-oxalate-extractable aluminum exerts the major impacts on both Prem and pH NaF, which, in turn, are less dependent on soil clay content. Although Prem and pH NaF have consistent correlation, the former has a soil-PBC discriminatory capacity much greater than pH NaF.
Resumo:
Photosynthetic responses to daily environmental changes were studied in bean (Phaseolus vulgaris L.) genotypes 'Carioca', 'Ouro Negro', and Guarumbé. Light response curves of CO2 assimilation and stomatal conductance (g s) were also evaluated under controlled (optimum) environmental condition. Under this condition, CO2 assimilation of 'Carioca' was not saturated at 2,000 µmol m-2 s-1, whereas Guarumbé and 'Ouro Negro' exhibited different levels of light saturation. All genotypes showed dynamic photoinhibition and reversible increase in the minimum chlorophyll fluorescence yield under natural condition, as well as lower photosynthetic capacity when compared with optimum environmental condition. Since differences in g s were not observed between natural and controlled conditions for Guarumbé and 'Ouro Negro', the lower photosynthetic capacity of these genotypes under natural condition seems to be caused by high temperature effects on biochemical reactions, as suggested by increased alternative electron sinks. The highest g s values of 'Carioca' were observed at controlled condition, providing evidences that reduction of photosynthetic capacity at natural condition was due to low g s in addition to the high temperature effects on the photosynthetic apparatus. 'Carioca' exhibited the highest photosynthetic rates under optimum environmental condition, and was more affected by daily changes of air temperature and leaf-to-air vapor pressure difference.
Resumo:
Most odors in natural environments are mixtures of several compounds. Perceptually, these can blend into a new "perfume," or some components may dominate as elements of the mixture. In order to understand such mixture interactions, it is necessary to study the events at the olfactory periphery, down to the level of single-odorant receptor cells. Does a strong ligand present at a low concentration outweigh the effect of weak ligands present at high concentrations? We used the fruit fly receptor dOr22a and a banana-like odor mixture as a model system. We show that an intermediate ligand at an intermediate concentration alone elicits the neuron's blend response, despite the presence of both weaker ligands at higher concentration, and of better ligands at lower concentration in the mixture. Because all of these components, when given alone, elicited significant responses, this reveals specific mixture processing already at the periphery. By measuring complete dose-response curves we show that these mixture effects can be fully explained by a model of syntopic interaction at a single-receptor binding site. Our data have important implications for how odor mixtures are processed in general, and what preprocessing occurs before the information reaches the brain.
Resumo:
Aim We examined whether species occurrences are primarily limited by physiological tolerance in the abiotically more stressful end of climatic gradients (the asymmetric abiotic stress limitation (AASL) hypothesis) and the geographical predictions of this hypothesis: abiotic stress mainly determines upper-latitudinal and upper-altitudinal species range limits, and the importance of abiotic stress for these range limits increases the further northwards and upwards a species occurs. Location Europe and the Swiss Alps. Methods The AASL hypothesis predicts that species have skewed responses to climatic gradients, with a steep decline towards the more stressful conditions. Based on presence-absence data we examined the shape of plant species responses (measured as probability of occurrence) along three climatic gradients across latitudes in Europe (1577 species) and altitudes in the Swiss Alps (284 species) using Huisman-Olff-Fresco, generalized linear and generalized additive models. Results We found that almost half of the species from Europe and one-third from the Swiss Alps showed responses consistent with the predictions of the AASL hypothesis. Cold temperatures and a short growing season seemed to determine the upper-latitudinal and upper-altitudinal range limits of up to one-third of the species, while drought provided an important constraint at lower-latitudinal range limits for up to one-fifth of the species. We found a biome-dependent influence of abiotic stress and no clear support for abiotic stress as a stronger upper range-limit determinant for species with higher latitudinal and altitudinal distributions. However, the overall influence of climate as a range-limit determinant increased with latitude. Main conclusions Our results support the AASL hypothesis for almost half of the studied species, and suggest that temperature-related stress controls the upper-latitudinal and upper-altitudinal range limits of a large proportion of these species, while other factors including drought stress may be important at the lower range limits.
Resumo:
The -function and the -function are phenomenological models that are widely used in the context of timing interceptive actions and collision avoidance, respectively. Both models were previously considered to be unrelated to each other: is a decreasing function that provides an estimation of time-to-contact (ttc) in the early phase of an object approach; in contrast, has a maximum before ttc. Furthermore, it is not clear how both functions could be implemented at the neuronal level in a biophysically plausible fashion. Here we propose a new framework the corrected modified Tau function capable of predicting both -type ("") and -type ("") responses. The outstanding property of our new framework is its resilience to noise. We show that can be derived from a firing rate equation, and, as , serves to describe the response curves of collision sensitive neurons. Furthermore, we show that predicts the psychophysical performance of subjects determining ttc. Our new framework is thus validated successfully against published and novel experimental data. Within the framework, links between -type and -type neurons are established. Therefore, it could possibly serve as a model for explaining the co-occurrence of such neurons in the brain.