906 resultados para limits to arbitrage
Resumo:
Particle production in a cosmological spacetime with extra dimensions is discussed. A five-dimensional cosmological model with a three-dimensional space expanding isotropically like in a radiative Friedmann-Robertson-Walker model and an internal space contracting to a constant small size is considered. The parameters of the model are adjusted so that time variations in internal space are compatible with present limits on time variations of the fundamental constants. By requiring that the energy density of the particles produced be less than the critical density at the radiation era we set restrictions on two more parameters: namely, the initial time of application of the semiclassical approach and the relative sizes between the internal space and the horizon of the ordinary Universe at this time. Whereas the production of massless particles allows a large range of variation to these parameters, the production of massive particles sets severe constraints on them, since, if they are overproduced, their energy density might very soon dominate the Universe and make cosmological dimensional reduction by extradimensional contraction unlikely.
Resumo:
Ces dernières années, de nombreuses recherches ont mis en évidence les effets toxiques des micropolluants organiques pour les espèces de nos lacs et rivières. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, alors que les organismes sont exposés tous les jours à des milliers de substances en mélange. Or les effets de ces cocktails ne sont pas négligeables. Cette thèse de doctorat s'est ainsi intéressée aux modèles permettant de prédire le risque environnemental de ces cocktails pour le milieu aquatique. Le principal objectif a été d'évaluer le risque écologique des mélanges de substances chimiques mesurées dans le Léman, mais aussi d'apporter un regard critique sur les méthodologies utilisées afin de proposer certaines adaptations pour une meilleure estimation du risque. Dans la première partie de ce travail, le risque des mélanges de pesticides et médicaments pour le Rhône et pour le Léman a été établi en utilisant des approches envisagées notamment dans la législation européenne. Il s'agit d'approches de « screening », c'est-à-dire permettant une évaluation générale du risque des mélanges. Une telle approche permet de mettre en évidence les substances les plus problématiques, c'est-à-dire contribuant le plus à la toxicité du mélange. Dans notre cas, il s'agit essentiellement de 4 pesticides. L'étude met également en évidence que toutes les substances, même en trace infime, contribuent à l'effet du mélange. Cette constatation a des implications en terme de gestion de l'environnement. En effet, ceci implique qu'il faut réduire toutes les sources de polluants, et pas seulement les plus problématiques. Mais l'approche proposée présente également un biais important au niveau conceptuel, ce qui rend son utilisation discutable, en dehors d'un screening, et nécessiterait une adaptation au niveau des facteurs de sécurité employés. Dans une deuxième partie, l'étude s'est portée sur l'utilisation des modèles de mélanges dans le calcul de risque environnemental. En effet, les modèles de mélanges ont été développés et validés espèce par espèce, et non pour une évaluation sur l'écosystème en entier. Leur utilisation devrait donc passer par un calcul par espèce, ce qui est rarement fait dû au manque de données écotoxicologiques à disposition. Le but a été donc de comparer, avec des valeurs générées aléatoirement, le calcul de risque effectué selon une méthode rigoureuse, espèce par espèce, avec celui effectué classiquement où les modèles sont appliqués sur l'ensemble de la communauté sans tenir compte des variations inter-espèces. Les résultats sont dans la majorité des cas similaires, ce qui valide l'approche utilisée traditionnellement. En revanche, ce travail a permis de déterminer certains cas où l'application classique peut conduire à une sous- ou sur-estimation du risque. Enfin, une dernière partie de cette thèse s'est intéressée à l'influence que les cocktails de micropolluants ont pu avoir sur les communautés in situ. Pour ce faire, une approche en deux temps a été adoptée. Tout d'abord la toxicité de quatorze herbicides détectés dans le Léman a été déterminée. Sur la période étudiée, de 2004 à 2009, cette toxicité due aux herbicides a diminué, passant de 4% d'espèces affectées à moins de 1%. Ensuite, la question était de savoir si cette diminution de toxicité avait un impact sur le développement de certaines espèces au sein de la communauté des algues. Pour ce faire, l'utilisation statistique a permis d'isoler d'autres facteurs pouvant avoir une influence sur la flore, comme la température de l'eau ou la présence de phosphates, et ainsi de constater quelles espèces se sont révélées avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps. Fait intéressant, une partie d'entre-elles avait déjà montré des comportements similaires dans des études en mésocosmes. En conclusion, ce travail montre qu'il existe des modèles robustes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques, et qu'ils peuvent être utilisés pour expliquer le rôle des substances dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application. - Depuis plusieurs années, les risques que posent les micropolluants organiques pour le milieu aquatique préoccupent grandement les scientifiques ainsi que notre société. En effet, de nombreuses recherches ont mis en évidence les effets toxiques que peuvent avoir ces substances chimiques sur les espèces de nos lacs et rivières, quand elles se retrouvent exposées à des concentrations aiguës ou chroniques. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, c'est à dire considérées séparément. Actuellement, il en est de même dans les procédures de régulation européennes, concernant la partie évaluation du risque pour l'environnement d'une substance. Or, les organismes sont exposés tous les jours à des milliers de substances en mélange, et les effets de ces "cocktails" ne sont pas négligeables. L'évaluation du risque écologique que pose ces mélanges de substances doit donc être abordé par de la manière la plus appropriée et la plus fiable possible. Dans la première partie de cette thèse, nous nous sommes intéressés aux méthodes actuellement envisagées à être intégrées dans les législations européennes pour l'évaluation du risque des mélanges pour le milieu aquatique. Ces méthodes sont basées sur le modèle d'addition des concentrations, avec l'utilisation des valeurs de concentrations des substances estimées sans effet dans le milieu (PNEC), ou à partir des valeurs des concentrations d'effet (CE50) sur certaines espèces d'un niveau trophique avec la prise en compte de facteurs de sécurité. Nous avons appliqué ces méthodes à deux cas spécifiques, le lac Léman et le Rhône situés en Suisse, et discuté les résultats de ces applications. Ces premières étapes d'évaluation ont montré que le risque des mélanges pour ces cas d'étude atteint rapidement une valeur au dessus d'un seuil critique. Cette valeur atteinte est généralement due à deux ou trois substances principales. Les procédures proposées permettent donc d'identifier les substances les plus problématiques pour lesquelles des mesures de gestion, telles que la réduction de leur entrée dans le milieu aquatique, devraient être envisagées. Cependant, nous avons également constaté que le niveau de risque associé à ces mélanges de substances n'est pas négligeable, même sans tenir compte de ces substances principales. En effet, l'accumulation des substances, même en traces infimes, atteint un seuil critique, ce qui devient plus difficile en terme de gestion du risque. En outre, nous avons souligné un manque de fiabilité dans ces procédures, qui peuvent conduire à des résultats contradictoires en terme de risque. Ceci est lié à l'incompatibilité des facteurs de sécurité utilisés dans les différentes méthodes. Dans la deuxième partie de la thèse, nous avons étudié la fiabilité de méthodes plus avancées dans la prédiction de l'effet des mélanges pour les communautés évoluant dans le système aquatique. Ces méthodes reposent sur le modèle d'addition des concentrations (CA) ou d'addition des réponses (RA) appliqués sur les courbes de distribution de la sensibilité des espèces (SSD) aux substances. En effet, les modèles de mélanges ont été développés et validés pour être appliqués espèce par espèce, et non pas sur plusieurs espèces agrégées simultanément dans les courbes SSD. Nous avons ainsi proposé une procédure plus rigoureuse, pour l'évaluation du risque d'un mélange, qui serait d'appliquer d'abord les modèles CA ou RA à chaque espèce séparément, et, dans une deuxième étape, combiner les résultats afin d'établir une courbe SSD du mélange. Malheureusement, cette méthode n'est pas applicable dans la plupart des cas, car elle nécessite trop de données généralement indisponibles. Par conséquent, nous avons comparé, avec des valeurs générées aléatoirement, le calcul de risque effectué selon cette méthode plus rigoureuse, avec celle effectuée traditionnellement, afin de caractériser la robustesse de cette approche qui consiste à appliquer les modèles de mélange sur les courbes SSD. Nos résultats ont montré que l'utilisation de CA directement sur les SSDs peut conduire à une sous-estimation de la concentration du mélange affectant 5 % ou 50% des espèces, en particulier lorsque les substances présentent un grand écart- type dans leur distribution de la sensibilité des espèces. L'application du modèle RA peut quant à lui conduire à une sur- ou sous-estimations, principalement en fonction de la pente des courbes dose- réponse de chaque espèce composant les SSDs. La sous-estimation avec RA devient potentiellement importante lorsque le rapport entre la EC50 et la EC10 de la courbe dose-réponse des espèces est plus petit que 100. Toutefois, la plupart des substances, selon des cas réels, présentent des données d' écotoxicité qui font que le risque du mélange calculé par la méthode des modèles appliqués directement sur les SSDs reste cohérent et surestimerait plutôt légèrement le risque. Ces résultats valident ainsi l'approche utilisée traditionnellement. Néanmoins, il faut garder à l'esprit cette source d'erreur lorsqu'on procède à une évaluation du risque d'un mélange avec cette méthode traditionnelle, en particulier quand les SSD présentent une distribution des données en dehors des limites déterminées dans cette étude. Enfin, dans la dernière partie de cette thèse, nous avons confronté des prédictions de l'effet de mélange avec des changements biologiques observés dans l'environnement. Dans cette étude, nous avons utilisé des données venant d'un suivi à long terme d'un grand lac européen, le lac Léman, ce qui offrait la possibilité d'évaluer dans quelle mesure la prédiction de la toxicité des mélanges d'herbicide expliquait les changements dans la composition de la communauté phytoplanctonique. Ceci à côté d'autres paramètres classiques de limnologie tels que les nutriments. Pour atteindre cet objectif, nous avons déterminé la toxicité des mélanges sur plusieurs années de 14 herbicides régulièrement détectés dans le lac, en utilisant les modèles CA et RA avec les courbes de distribution de la sensibilité des espèces. Un gradient temporel de toxicité décroissant a pu être constaté de 2004 à 2009. Une analyse de redondance et de redondance partielle, a montré que ce gradient explique une partie significative de la variation de la composition de la communauté phytoplanctonique, même après avoir enlevé l'effet de toutes les autres co-variables. De plus, certaines espèces révélées pour avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps, ont montré des comportements similaires dans des études en mésocosmes. On peut en conclure que la toxicité du mélange herbicide est l'un des paramètres clés pour expliquer les changements de phytoplancton dans le lac Léman. En conclusion, il existe diverses méthodes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques et celui-ci peut jouer un rôle dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application, avant d'utiliser leurs résultats pour la gestion des risques environnementaux. - For several years now, the scientists as well as the society is concerned by the aquatic risk organic micropollutants may pose. Indeed, several researches have shown the toxic effects these substances may induce on organisms living in our lakes or rivers, especially when they are exposed to acute or chronic concentrations. However, most of the studies focused on the toxicity of single compounds, i.e. considered individually. The same also goes in the current European regulations concerning the risk assessment procedures for the environment of these substances. But aquatic organisms are typically exposed every day simultaneously to thousands of organic compounds. The toxic effects resulting of these "cocktails" cannot be neglected. The ecological risk assessment of mixtures of such compounds has therefore to be addressed by scientists in the most reliable and appropriate way. In the first part of this thesis, the procedures currently envisioned for the aquatic mixture risk assessment in European legislations are described. These methodologies are based on the mixture model of concentration addition and the use of the predicted no effect concentrations (PNEC) or effect concentrations (EC50) with assessment factors. These principal approaches were applied to two specific case studies, Lake Geneva and the River Rhône in Switzerland, including a discussion of the outcomes of such applications. These first level assessments showed that the mixture risks for these studied cases exceeded rapidly the critical value. This exceeding is generally due to two or three main substances. The proposed procedures allow therefore the identification of the most problematic substances for which management measures, such as a reduction of the entrance to the aquatic environment, should be envisioned. However, it was also showed that the risk levels associated with mixtures of compounds are not negligible, even without considering these main substances. Indeed, it is the sum of the substances that is problematic, which is more challenging in term of risk management. Moreover, a lack of reliability in the procedures was highlighted, which can lead to contradictory results in terms of risk. This result is linked to the inconsistency in the assessment factors applied in the different methods. In the second part of the thesis, the reliability of the more advanced procedures to predict the mixture effect to communities in the aquatic system were investigated. These established methodologies combine the model of concentration addition (CA) or response addition (RA) with species sensitivity distribution curves (SSD). Indeed, the mixture effect predictions were shown to be consistent only when the mixture models are applied on a single species, and not on several species simultaneously aggregated to SSDs. Hence, A more stringent procedure for mixture risk assessment is proposed, that would be to apply first the CA or RA models to each species separately and, in a second step, to combine the results to build an SSD for a mixture. Unfortunately, this methodology is not applicable in most cases, because it requires large data sets usually not available. Therefore, the differences between the two methodologies were studied with datasets created artificially to characterize the robustness of the traditional approach applying models on species sensitivity distribution. The results showed that the use of CA on SSD directly might lead to underestimations of the mixture concentration affecting 5% or 50% of species, especially when substances present a large standard deviation of the distribution from the sensitivity of the species. The application of RA can lead to over- or underestimates, depending mainly on the slope of the dose-response curves of the individual species. The potential underestimation with RA becomes important when the ratio between the EC50 and the EC10 for the dose-response curve of the species composing the SSD are smaller than 100. However, considering common real cases of ecotoxicity data for substances, the mixture risk calculated by the methodology applying mixture models directly on SSDs remains consistent and would rather slightly overestimate the risk. These results can be used as a theoretical validation of the currently applied methodology. Nevertheless, when assessing the risk of mixtures, one has to keep in mind this source of error with this classical methodology, especially when SSDs present a distribution of the data outside the range determined in this study Finally, in the last part of this thesis, we confronted the mixture effect predictions with biological changes observed in the environment. In this study, long-term monitoring of a European great lake, Lake Geneva, provides the opportunity to assess to what extent the predicted toxicity of herbicide mixtures explains the changes in the composition of the phytoplankton community next to other classical limnology parameters such as nutrients. To reach this goal, the gradient of the mixture toxicity of 14 herbicides regularly detected in the lake was calculated, using concentration addition and response addition models. A decreasing temporal gradient of toxicity was observed from 2004 to 2009. Redundancy analysis and partial redundancy analysis showed that this gradient explains a significant portion of the variation in phytoplankton community composition, even when having removed the effect of all other co-variables. Moreover, some species that were revealed to be influenced positively or negatively, by the decrease of toxicity in the lake over time, showed similar behaviors in mesocosms studies. It could be concluded that the herbicide mixture toxicity is one of the key parameters to explain phytoplankton changes in Lake Geneva. To conclude, different methods exist to predict the risk of mixture in the ecosystems. But their reliability varies depending on the underlying hypotheses. One should therefore carefully consider these hypotheses, as well as the limits of the approaches, before using the results for environmental risk management
Resumo:
In comparison with other micronutrients, the levels of nickel (Ni) available in soils and plant tissues are very low, making quantification very difficult. The objective of this paper is to present optimized determination methods of Ni availability in soils by extractants and total content in plant tissues for routine commercial laboratory analyses. Samples of natural and agricultural soils were processed and analyzed by Mehlich-1 extraction and by DTPA. To quantify Ni in the plant tissues, samples were digested with nitric acid in a closed system in a microwave oven. The measurement was performed by inductively coupled plasma/optical emission spectrometry (ICP-OES). There was a positive and significant correlation between the levels of available Ni in the soils subjected to Mehlich-1 and DTPA extraction, while for plant tissue samples the Ni levels recovered were high and similar to the reference materials. The availability of Ni in some of the natural soil and plant tissue samples were lower than the limits of quantification. Concentrations of this micronutrient were higher in the soil samples in which Ni had been applied. Nickel concentration differed in the plant parts analyzed, with highest levels in the grains of soybean. The grain, in comparison with the shoot and leaf concentrations, were better correlated with the soil available levels for both extractants. The methods described in this article were efficient in quantifying Ni and can be used for routine laboratory analysis of soils and plant tissues.
Resumo:
The genes do not control everything that happens in a cell or an organism, because thermally induced molecular movements and conformation changes are beyond genetic control. The importance of uncontrolled events has been argued from the differences between isogenic organisms reared in virtually identical environments, but these might alternatively be attributed to subtle, undetected differences in the environment. The present review focuses on the uncontrolled events themselves in the context of the developing brain. These are considered at cellular and circuit levels because even if cellular physiology was perfectly controlled by the genes (which it is not), the interactions between different cells might still be uncoordinated. A further complication is that the brain contains mechanisms that buffer noise and others that amplify it. The final resultant of the battle between these contrary mechanisms is that developmental stochasticity is sufficiently low to make neurobehavioural defects uncommon, but a chance component of neural development remains. Thus, our brains and behaviour are not entirely determined by a combination of genes-plus-environment.
Resumo:
Fas-deficient mice (Fas(lpr/lpr)) and humans have profoundly dysregulated T lymphocyte homeostasis, which manifests as an accumulation of CD4(+) and CD8(+) T cells as well as an unusual population of CD4(-)CD8(-)TCRαβ(+) T cells. To date, no unifying model has explained both the increased T-cell numbers and the origin of the CD4(-)CD8(-)TCRαβ(+) T cells. As Fas(lpr/lpr) mice raised in a germ-free environment still manifest lymphadenopathy, we considered that this process is primarily driven by recurrent low-avidity TCR signaling in response to self-peptide/MHC as occurs during homeostatic proliferation. In these studies, we developed two independent systems to decrease the number of self-peptide/MHC contacts. First, expression of MHC class I was reduced in OT-I TCR transgenic mice. Although OT-I Fas(lpr/lpr) mice did not develop lymphadenopathy characteristic of Fas(lpr/lpr) mice, in the absence of MHC class I, OT-I Fas(lpr/lpr) T cells accumulated as both CD8(+) and CD4(-)CD8(-) T cells. In the second system, re-expression of β(2)m limited to thymic cortical epithelial cells of Fas(lpr/lpr) β(2)m-deficient mice yielded a model in which polyclonal CD8(+) thymocytes entered a peripheral environment devoid of MHC class I. These mice accumulated significantly greater numbers of CD4(-)CD8(-)TCRαβ(+) T cells than conventional Fas(lpr/lpr) mice. Thus, Fas shapes the peripheral T-cell repertoire by regulating the survival of a subset of T cells proliferating in response to limited self-peptide/MHC contacts.
Resumo:
The major objective of this study was to investigate the effects of several days of intense exercise on the growth hormone marker approach to detect doping with human growth hormone (hGH). In addition we investigated the effect of changes in plasma volume on the test. Fifteen male athletes performed a simulated nine-day cycling stage race. Blood samples were collected twice daily over a period of 15 days (stage race + three days before and after). Plasma volumes were estimated by the optimized CO Rebreathing method. IGF-1 and P-III-NP were analyzed by Siemens Immulite and Cisbio Assays, respectively. All measured GH 2000 scores were far below the published decision limits for an adverse analytical finding. The period of exercise did not increase the GH-scores; however the accompanying effect of the increase in Plasma Volume yielded in essentially lower GH-scores. We could demonstrate that a period of heavy, long-term exercise with changes in plasma volume does not interfere with the decision limits for an adverse analytical finding. Copyright © 2014 John Wiley & Sons, Ltd.
Resumo:
In response to local concerns, the Iowa Department of Transportation (DOT) requested a road safety audit (RSA) for the IA Highway 28 corridor through the City of Norwalk in Warren County, Iowa, from the south corporate limits of Norwalk through the IA 5 interchange in Polk County, Iowa. The audit included meeting with City staff to discuss concerns, review crash history and operational issues, observe the route under daylight and nighttime conditions, and analyze available data. This report outlines the findings and recommendations of the audit team for addressing the safety concerns and operational matters along this corridor.
Resumo:
The purpose of this project was to investigate the potential for collecting and using data from mobile terrestrial laser scanning (MTLS) technology that would reduce the need for traditional survey methods for the development of highway improvement projects at the Iowa Department of Transportation (Iowa DOT). The primary interest in investigating mobile scanning technology is to minimize the exposure of field surveyors to dangerous high volume traffic situations. Issues investigated were cost, timeframe, accuracy, contracting specifications, data capture extents, data extraction capabilities and data storage issues associated with mobile scanning. The project area selected for evaluation was the I-35/IA 92 interchange in Warren County, Iowa. This project covers approximately one mile of I-35, one mile of IA 92, 4 interchange ramps, and bridges within these limits. Delivered LAS and image files for this project totaled almost 31GB. There is nearly a 6-fold increase in the size of the scan data after post-processing. Camera data, when enabled, produced approximately 900MB of imagery data per mile using a 2- camera, 5 megapixel system. A comparison was done between 1823 points on the pavement that were surveyed by Iowa DOT staff using a total station and the same points generated through the MTLS process. The data acquired through the MTLS and data processing met the Iowa DOT specifications for engineering survey. A list of benefits and challenges is included in the detailed report. With the success of this project, it is anticipate[d] that additional projects will be scanned for the Iowa DOT for use in the development of highway improvement projects.
Resumo:
Variable advisory speed limit (VASL) systems could be effective at both urban and rural work zones, at both uncongested and congested sites. At uncongested urban work zones, the average speeds with VASL were lower than without VASL. But the standard deviation of speeds with VASL was higher. The increase in standard deviation may be due to the advisory nature of VASL. The speed limit compliance with VASL was about eight times greater than without VASL. At the congested sites, the VASL were effective in making drivers slow down gradually as they approached the work zone, reducing any sudden changes in speeds. Mobility-wise the use of VASL resulted in a decrease in average queue length, throughput, number of stops, and an increase in travel time. Several surrogate safety measures also demonstrated the benefits of VASL in congested work zones. VASL deployments in rural work zones resulted in reductions in mean speed, speed variance, and 85th percentile speeds downstream of the VASL sign. The study makes the following recommendations based on the case studies investigated: 1. The use of VASL is recommended for uncongested work zones to achieve better speed compliance and lower speeds. Greater enforcement of regulatory speed limits could help to decrease the standard deviation in speeds; 2. The use of VASL to complement the static speed limits in rural work zones is beneficial even if the VASL is only used to display the static speed limits. It leads to safer traffic conditions by encouraging traffic to slow down gradually and by reminding traffic of the reduced speed limit. A well-designed VASL algorithm, like the P5 algorithm developed in this study, can significantly improve the mobility and safety conditions in congested work zones. The use of simulation is recommended for optimizing the VASL algorithms before field deployment.
Resumo:
Résumé La responsabilité d'un expert chargé d'apprécier la capacité érectile d'un prévenu est importante, car la peine infligée par le tribunal peut dépendre de ses conclusions. Sa tâche est en plus ardue car les procédés d'investigations de la fonction érectile ont tous des limites. Malgré toutes ces limites qui sont décrites dans cet article, l'expert peut aider à la recherche de la vérité comme les auteurs le démontrent. Summary The responsability of the expert in charge to appreciate the erectile capacity of an accused is considerable, as the sentence inflicted by the Tribunal could depend directly on his conclusions. His duty is harder as all the investigation procedures of the erectile functions have limits. Despite these limits, described in this article, the expert can help to discover the truth, as demonstrated by the authors.
Resumo:
Ocular neovascularizations are responsible for irreversible loss of vision in various diseases, including age-related macular degeneration. Treatments have changed greatly, and photodynamic therapy with verteporfin has come into common use. However, the visual prognosis remains poor. The recent approval of new antiangiogenic molecules such as ranibizumab and pegaptanib should allow for new therapeutical possibilities. The unapproved ophthalmological use of bevacizumab requires further studies. This paper updates what is known about old and new neovascularization treatments: their mechanism of action, their efficacy, and their toxicity. It reviews the principal clinical studies, and concludes with the recognized recommendations. For the first time, ophthalmologists can hope not only to stabilize loss of vision, but also to improve visual acuity. Complementary treatments can now be tested in associations, concomitantly or not, with the hope of improving visual results.
Resumo:
The comments related to the sustainability of knowledge management (KM) have shown signs that it possibly can be a discourse which determines a quick style, but otherwise have also allowed the building of a better understanding about the limits and weaknesses of the knowlege management. In addition to the criticisms, the conceptual bases of knowledge management have been undermined by a contradictory combination of paradigms; there are also contradictions between the theoretical perspective jubjacent to the knwoledge management and its operationality. As a way of minimizing the possibility that the knowledge management may be turned into an umbrella concept and fail, it is suggested that its approaches embody a more interpretative perspective, taking up the role of an instrument which enables and facilitates the processes and practices in building up knowledge and information, enhancing their focus on the support to the establishment of human competences in order to deal intelligently with the present overcharge of information resources and need for building up information in the organizations.
Resumo:
A new method is used to estimate the volumes of sediments of glacial valleys. This method is based on the concept of sloping local base level and requires only a digital terrain model and the limits of the alluvial valleys as input data. The bedrock surface of the glacial valley is estimated by a progressive excavation of the digital elevation model (DEM) of the filled valley area. This is performed using an iterative routine that replaces the altitude of a point of the DEM by the mean value of its neighbors minus a fixed value. The result is a curved surface, quadratic in 2D. The bedrock surface of the Rhone Valley in Switzerland was estimated by this method using the free digital terrain model Shuttle Radar Topography Mission (SRTM) (~92 m resolution). The results obtained are in good agreement with the previous estimations based on seismic profiles and gravimetric modeling, with the exceptions of some particular locations. The results from the present method and those from the seismic interpretation are slightly different from the results of the gravimetric data. This discrepancy may result from the presence of large buried landslides in the bottom of the Rhone Valley.
Resumo:
The main goal of this observational and descriptive study is to evaluate whether the diagnosis axis of a nursing interface terminology meets the content validity criterion of being nursing-phenomena oriented. Nursing diagnosis concepts were analyzed in terms of presence in the nursing literature, type of articles published and areas of disciplinary interest. The search strategy was conducted in three databases with limits in relation to period and languages. The final analysis included 287 nursing diagnosis concepts. The results showed that most of the concepts were identified in the scientific literature, with a homogeneous distribution of types of designs. Most of these concepts (87.7%) were studied from two or more areas of disciplinary interest. Validity studies on disciplinary controlled vocabularies may contribute to demonstrate the nursing influence on patients" outcomes.
Resumo:
Issue ownership theory argues that when a voter considers a party to be the most competent amongst others to deal with an issue (that is, the party "owns" the issue), chances are the voter will vote for that party. Recent work has shown that perceptions of issue ownership are dynamic: they are affected by the media coverage of party messages. However, based on the broad literature on partisan bias, we predict that parties' efforts to change issue ownership perceptions will have a difficult time breaching the perceptual screen created by a voter's party preference. Using two separate experiments with a similar design we show that the effect of partisan issue messages on issue competence is moderated by party preference. The effect of issue messages is reinforced when people already like a party, and blocked when people dislike a party.