79 resultados para Second Step
Resumo:
To target pharmacological prevention, instruments giving an approximation of an individual patient's risk of developing postoperative delirium are available. In view of the variable clinical presentation, identifying patients in whom prophylaxis has failed (that is, who develop delirium) remains a challenge. Several bedside instruments are available for the routine ward and ICU setting. Several have been shown to have a high specificity and sensitivity when compared with the standard definitions according to DSM-IV-TR and ICD-10. The Confusion Assessment Method (CAM) and a version specifically developed for the intensive care setting (CAM-ICU) have emerged as a standard. However, alternatives allowing grading of the severity of delirium are also available. In many units, the approach to delirium follows a three-step strategy. Initially, non-pharmacological multicomponent strategies are used for primary prevention. As a second step, pharmacological prophylaxis may be added. Perioperative administration of haloperidol has been shown to reduce the severity, but not the incidence, of delirium. Perioperative administration of atypical antipsychotics has been shown to reduce the incidence of delirium in specific groups of patients. In patients with delirium, both symptomatic and causal treatment of delirium need to be considered. So far symptomatic treatment of delirium is primarily based on antipsychotics. Currently, cholinesterase inhibitors cannot be recommended and the data on dexmedetomidine are inconclusive. With the exception of alcohol-withdrawal delirium, there is no role for benzodiazepines in the treatment of delirium. It is unclear whether treating delirium prevents long-term sequelae.
Resumo:
Our understanding of the distribution of worldwide human genomic diversity has greatly increased over recent years thanks to the availability of large data sets derived from short tandem repeats (STRs), insertion deletion polymorphisms (indels) and single nucleotide polymorphisms (SNPs). A concern, however, is that the current picture of worldwide human genomic diversity may be inaccurate because of biases in the selection process of genetic markers (so-called 'ascertainment bias'). To evaluate this problem, we first compared the distribution of genomic diversity between these three types of genetic markers in the populations from the HGDP-CEPH panel for evidence of bias or incongruities. In a second step, using a very relaxed set of criteria to prevent the intrusion of bias, we developed a new set of unbiased STR markers and compared the results against those from available panels. Contrarily to recent claims, our results show that the STR markers suffer from no discernible bias, and can thus be used as a baseline reference for human genetic diversity and population differentiation. The bias on SNPs is moderate compared to that on the set of indels analysed, which we recommend should be avoided for work describing the distribution of human genetic diversity or making inference on human settlement history.
Resumo:
Intuitively, we think of perception as providing us with direct cognitive access to physical objects and their properties. But this common sense picture of perception becomes problematic when we notice that perception is not always veridical. In fact, reflection on illusions and hallucinations seems to indicate that perception cannot be what it intuitively appears to be. This clash between intuition and reflection is what generates the puzzle of perception. The task and enterprise of unravelling this puzzle took, and still takes, centre stage in the philosophy of perception. The goal of my dissertation is to make a contribution to this enterprise by formulating and defending a new structural approach to perception and perceptual consciousness. The argument for my structural approach is developed in several steps. Firstly, I develop an empirically inspired causal argument against naïve and direct realist conceptions of perceptual consciousness. Basically, the argument says that perception and hallucination can have the same proximal causes and must thus belong to the same mental kind. I emphasise that this insight gives us good reasons to abandon what we are instinctively driven to believe - namely that perception is directly about the outside physical world. The causal argument essentially highlights that the information that the subject acquires in perceiving a worldly object is always indirect. To put it another way, the argument shows that what we, as perceivers, are immediately aware of, is not an aspect of the world but an aspect of our sensory response to it. A view like this is traditionally known as a Representative Theory of Perception. As a second step, emphasis is put on the task of defending and promoting a new structural version of the Representative Theory of Perception; one that is immune to some major objections that have been standardly levelled at other Representative Theories of Perception. As part of this defence and promotion, I argue that it is only the structural features of perceptual experiences that are fit to represent the empirical world. This line of thought is backed up by a detailed study of the intriguing phenomenon of synaesthesia. More precisely, I concentrate on empirical cases of synaesthetic experiences and argue that some of them provide support for a structural approach to perception. The general picture that emerges in this dissertation is a new perspective on perceptual consciousness that is structural through and through.
Resumo:
OBJECTIVE:: To determine whether there are differences in health perception and health care use among adolescents with psychosomatic symptoms (PS), with chronic conditions (CCs), and with both conditions compared with healthy controls. METHODS:: By using the SMASH02 database, 4 groups were created: youths with PS but no CCs (N = 1010); youths with CCs but no PS (N = 497); youths with both psychosomatic symptoms and chronic conditions (PSCC, N = 213); and youths with neither PS nor CC (control, N = 5709). We used χ tests and analysis of variance to compare each variable between the 4 groups. In a second step, all health and health care use variables were included in a multinomial regression analysis controlling for significant (p < .05) background variables and using the control group as the reference. RESULTS:: Overall, PS and PSCC youths were significantly more likely to rate their health as poor, to be depressed, and to have consulted several times their primary health care provider or a mental health professional than their healthy peers. With the exception of being depressed, PSCC adolescents reported worse health perception and higher health care use than CC and PS. CONCLUSIONS:: Although PS youths do not define PS as a CC, it should be considered as one. Moreover, having PS represents an additional burden to chronically ill adolescents. Health professionals dealing with adolescents must be aware of the deleterious health effects that PS can have on adolescents and have this diagnosis in mind to better target the treatment and improve their management.
Resumo:
INTRODUCTION. The assessment of pain in critically ill brain-injured patients is challenging for health professionals. In addition to be unable to self-report, the confused and stereotyped behaviors of these patients are likely to alter their ''normal'' pain responses. Therefore, the pain indicators observed in the general critically ill population may not be appropriate. OBJECTIVES. To identify behavioral and physiological indicators used by clinicians to assess pain in critically ill brain-injured patients who are unable to self-report. METHODS.Amixed-method design was used with the first step being the combination of the results of an integrative literature review with the results of nominal groups of 12 nurses and four physicians. The second step involved a web-based survey to establish content validity. Fourteen experts (clinicians and academics) from three French speaking European countries rated the relevance of each indicator. A content validity index (CVI) was computed for each indicator (I-CVI) and for each category (S-CVI). RESULTS. The first step generated 52 indicators. These indicators were classified into six categories: facial expressions, position/movement, muscle tension, vocalization, compliance with ventilator, and physiological indicators. In the second step, the agreement between raters was high with an Intraclass Correlation Coefficient of 0.88 (95% CI 0.83-0.92). The I-CVIs ranged from 0.07 to 1. Indicators with an I-CVI below 0.5 (n = 12) were not retained, resulting in a final list of 30 indicators. The CVI for this final list was 0.75 with categories ranging from 0.67 (compliance with ventilation) to 0.87 (vocalization). CONCLUSIONS. This process identified specific pain indicators for critically ill braininjured patients. Further evaluation is in progress to test the validity and relevance of these indicators in the clinical setting.
Resumo:
Background. Early identification of pathogens from blood cultures using matrix-assisted laser desorption ionization time-of-flight (MALDI-TOF) mass spectrometry may optimize the choice of empirical antibiotic therapy in the setting of bloodstream infections. We aimed to assess the impact of this new technology on the use of antibiotic treatment in patients with gram-negative bacteremia. Methods. We conducted a prospective observational study from January to December 2010 to evaluate the sequential and separate impacts of Gram stain reporting and MALDI-TOF bacterial identification performed on blood culture pellets in patients with gram-negative bacteremia. The primary outcome was the impact of MALDI-TOF on empirical antibiotic choice. Results. Among 202 episodes of gram-negative bacteremia, Gram stain reporting had an impact in 42 cases (20.8%). MALDI-TOF identification led to a modification of empirical therapy in 71 of all 202 cases (35.1%), and in 16 of 27 cases (59.3%) of monomicrobial bacteremia caused by AmpC-producing Enterobacteriaceae. The most frequently observed impact was an early appropriate broadening of the antibiotic spectrum in 31 of 71 cases (43.7%). In total, 143 of 165 episodes (86.7%) of monomicrobial bacteremia were correctly identified at genus level by MALDI-TOF. Conclusions. In a low prevalence area for extended spectrum betalactamases (ESBL) and multiresistant gram-negative bacteria, MALDI-TOF performed on blood culture pellets had an impact on the clinical management of 35.1% of all gram-negative bacteremia cases, demonstrating a greater impact than Gram stain reporting. Thus, MALDI-TOF could become a vital second step beside Gram stain in guiding the empirical treatment of patients with bloodstream infection.
Resumo:
Questions Soil properties have been widely shown to influence plant growth and distribution. However, the degree to which edaphic variables can improve models based on topo-climatic variables is still unclear. In this study, we tested the roles of seven edaphic variables, namely (1) pH; (2) the content of nitrogen and of (3) phosphorus; (4) silt; (5) sand; (6) clay and (7) carbon-to-nitrogen ratio, as predictors of species distribution models in an edaphically heterogeneous landscape. We also tested how the respective influence of these variables in the models is linked to different ecological and functional species characteristics. Location The Western Alps, Switzerland. Methods With four different modelling techniques, we built models for 115 plant species using topo-climatic variables alone and then topo-climatic variables plus each of the seven edaphic variables, one at a time. We evaluated the contribution of each edaphic variable by assessing the change in predictive power of the model. In a second step, we evaluated the importance of the two edaphic variables that yielded the largest increase in predictive power in one final set of models for each species. Third, we explored the change in predictive power and the importance of variables across plant functional groups. Finally, we assessed the influence of the edaphic predictors on the prediction of community composition by stacking the models for all species and comparing the predicted communities with the observed community. Results Among the set of edaphic variables studied, pH and nitrogen content showed the highest contributions to improvement of the predictive power of the models, as well as the predictions of community composition. When considering all topo-climatic and edaphic variables together, pH was the second most important variable after degree-days. The changes in model results caused by edaphic predictors were dependent on species characteristics. The predictions for the species that have a low specific leaf area, and acidophilic preferences, tolerating low soil pH and high humus content, showed the largest improvement by the addition of pH and nitrogen in the model. Conclusions pH was an important predictor variable for explaining species distribution and community composition of the mountain plants considered in our study. pH allowed more precise predictions for acidophilic species. This variable should not be neglected in the construction of species distribution models in areas with contrasting edaphic conditions.
Resumo:
Summary Ecotones are sensitive to change because they contain high numbers of species living at the margin of their environmental tolerance. This is equally true of tree-lines, which are determined by attitudinal or latitudinal temperature gradients. In the current context of climate change, they are expected to undergo modifications in position, tree biomass and possibly species composition. Attitudinal and latitudinal tree-lines differ mainly in the steepness of the underlying temperature gradient: distances are larger at latitudinal tree-lines, which could have an impact on the ability of tree species to migrate in response to climate change. Aside from temperature, tree-lines are also affected on a more local level by pressure from human activities. These are also changing as a consequence of modifications in our societies and may interact with the effects of climate change. Forest dynamics models are often used for climate change simulations because of their mechanistic processes. The spatially-explicit model TreeMig was used as a base to develop a model specifically tuned for the northern European and Alpine tree-line ecotones. For the latter, a module for land-use change processes was also added. The temperature response parameters for the species in the model were first calibrated by means of tree-ring data from various species and sites at both tree-lines. This improved the growth response function in the model, but also lead to the conclusion that regeneration is probably more important than growth for controlling tree-line position and species' distributions. The second step was to implement the module for abandonment of agricultural land in the Alps, based on an existing spatial statistical model. The sensitivity of its most important variables was tested and the model's performance compared to other modelling approaches. The probability that agricultural land would be abandoned was strongly influenced by the distance from the nearest forest and the slope, bath of which are proxies for cultivation costs. When applied to a case study area, the resulting model, named TreeMig-LAb, gave the most realistic results. These were consistent with observed consequences of land-abandonment such as the expansion of the existing forest and closing up of gaps. This new model was then applied in two case study areas, one in the Swiss Alps and one in Finnish Lapland, under a variety of climate change scenarios. These were based on forecasts of temperature change over the next century by the IPCC and the HadCM3 climate model (ΔT: +1.3, +3.5 and +5.6 °C) and included a post-change stabilisation period of 300 years. The results showed radical disruptions at both tree-lines. With the most conservative climate change scenario, species' distributions simply shifted, but it took several centuries reach a new equilibrium. With the more extreme scenarios, some species disappeared from our study areas (e.g. Pinus cembra in the Alps) or dwindled to very low numbers, as they ran out of land into which they could migrate. The most striking result was the lag in the response of most species, independently from the climate change scenario or tree-line type considered. Finally, a statistical model of the effect of reindeer (Rangifer tarandus) browsing on the growth of Pinus sylvestris was developed, as a first step towards implementing human impacts at the boreal tree-line. The expected effect was an indirect one, as reindeer deplete the ground lichen cover, thought to protect the trees against adverse climate conditions. The model showed a small but significant effect of browsing, but as the link with the underlying climate variables was unclear and the model was not spatial, it was not usable as such. Developing the TreeMig-LAb model allowed to: a) establish a method for deriving species' parameters for the growth equation from tree-rings, b) highlight the importance of regeneration in determining tree-line position and species' distributions and c) improve the integration of social sciences into landscape modelling. Applying the model at the Alpine and northern European tree-lines under different climate change scenarios showed that with most forecasted levels of temperature increase, tree-lines would suffer major disruptions, with shifts in distributions and potential extinction of some tree-line species. However, these responses showed strong lags, so these effects would not become apparent before decades and could take centuries to stabilise. Résumé Les écotones son sensibles au changement en raison du nombre élevé d'espèces qui y vivent à la limite de leur tolérance environnementale. Ceci s'applique également aux limites des arbres définies par les gradients de température altitudinaux et latitudinaux. Dans le contexte actuel de changement climatique, on s'attend à ce qu'elles subissent des modifications de leur position, de la biomasse des arbres et éventuellement des essences qui les composent. Les limites altitudinales et latitudinales diffèrent essentiellement au niveau de la pente des gradients de température qui les sous-tendent les distance sont plus grandes pour les limites latitudinales, ce qui pourrait avoir un impact sur la capacité des espèces à migrer en réponse au changement climatique. En sus de la température, la limite des arbres est aussi influencée à un niveau plus local par les pressions dues aux activités humaines. Celles-ci sont aussi en mutation suite aux changements dans nos sociétés et peuvent interagir avec les effets du changement climatique. Les modèles de dynamique forestière sont souvent utilisés pour simuler les effets du changement climatique, car ils sont basés sur la modélisation de processus. Le modèle spatialement explicite TreeMig a été utilisé comme base pour développer un modèle spécialement adapté pour la limite des arbres en Europe du Nord et dans les Alpes. Pour cette dernière, un module servant à simuler des changements d'utilisation du sol a également été ajouté. Tout d'abord, les paramètres de la courbe de réponse à la température pour les espèces inclues dans le modèle ont été calibrées au moyen de données dendrochronologiques pour diverses espèces et divers sites des deux écotones. Ceci a permis d'améliorer la courbe de croissance du modèle, mais a également permis de conclure que la régénération est probablement plus déterminante que la croissance en ce qui concerne la position de la limite des arbres et la distribution des espèces. La seconde étape consistait à implémenter le module d'abandon du terrain agricole dans les Alpes, basé sur un modèle statistique spatial existant. La sensibilité des variables les plus importantes du modèle a été testée et la performance de ce dernier comparée à d'autres approches de modélisation. La probabilité qu'un terrain soit abandonné était fortement influencée par la distance à la forêt la plus proche et par la pente, qui sont tous deux des substituts pour les coûts liés à la mise en culture. Lors de l'application en situation réelle, le nouveau modèle, baptisé TreeMig-LAb, a donné les résultats les plus réalistes. Ceux-ci étaient comparables aux conséquences déjà observées de l'abandon de terrains agricoles, telles que l'expansion des forêts existantes et la fermeture des clairières. Ce nouveau modèle a ensuite été mis en application dans deux zones d'étude, l'une dans les Alpes suisses et l'autre en Laponie finlandaise, avec divers scénarios de changement climatique. Ces derniers étaient basés sur les prévisions de changement de température pour le siècle prochain établies par l'IPCC et le modèle climatique HadCM3 (ΔT: +1.3, +3.5 et +5.6 °C) et comprenaient une période de stabilisation post-changement climatique de 300 ans. Les résultats ont montré des perturbations majeures dans les deux types de limites de arbres. Avec le scénario de changement climatique le moins extrême, les distributions respectives des espèces ont subi un simple glissement, mais il a fallu plusieurs siècles pour qu'elles atteignent un nouvel équilibre. Avec les autres scénarios, certaines espèces ont disparu de la zone d'étude (p. ex. Pinus cembra dans les Alpes) ou ont vu leur population diminuer parce qu'il n'y avait plus assez de terrains disponibles dans lesquels elles puissent migrer. Le résultat le plus frappant a été le temps de latence dans la réponse de la plupart des espèces, indépendamment du scénario de changement climatique utilisé ou du type de limite des arbres. Finalement, un modèle statistique de l'effet de l'abroutissement par les rennes (Rangifer tarandus) sur la croissance de Pinus sylvestris a été développé, comme première étape en vue de l'implémentation des impacts humains sur la limite boréale des arbres. L'effet attendu était indirect, puisque les rennes réduisent la couverture de lichen sur le sol, dont on attend un effet protecteur contre les rigueurs climatiques. Le modèle a mis en évidence un effet modeste mais significatif, mais étant donné que le lien avec les variables climatiques sous jacentes était peu clair et que le modèle n'était pas appliqué dans l'espace, il n'était pas utilisable tel quel. Le développement du modèle TreeMig-LAb a permis : a) d'établir une méthode pour déduire les paramètres spécifiques de l'équation de croissance ä partir de données dendrochronologiques, b) de mettre en évidence l'importance de la régénération dans la position de la limite des arbres et la distribution des espèces et c) d'améliorer l'intégration des sciences sociales dans les modèles de paysage. L'application du modèle aux limites alpines et nord-européennes des arbres sous différents scénarios de changement climatique a montré qu'avec la plupart des niveaux d'augmentation de température prévus, la limite des arbres subirait des perturbations majeures, avec des glissements d'aires de répartition et l'extinction potentielle de certaines espèces. Cependant, ces réponses ont montré des temps de latence importants, si bien que ces effets ne seraient pas visibles avant des décennies et pourraient mettre plusieurs siècles à se stabiliser.
Resumo:
Anti-doping authorities have high expectations of the athlete steroidal passport (ASP) for anabolic-androgenic steroids misuse detection. However, it is still limited to the monitoring of known well-established compounds and might greatly benefit from the discovery of new relevant biomarkers candidates. In this context, steroidomics opens the way to the untargeted simultaneous evaluation of a high number of compounds. Analytical platforms associating the performance of ultra-high pressure liquid chromatography (UHPLC) and the high mass-resolving power of quadrupole time-of-flight (QTOF) mass spectrometers are particularly adapted for such purpose. An untargeted steroidomic approach was proposed to analyse urine samples from a clinical trial for the discovery of relevant biomarkers of testosterone undecanoate oral intake. Automatic peak detection was performed and a filter of reference steroid metabolites mass-to-charge ratio (m/z) values was applied to the raw data to ensure the selection of a subset of steroid-related features. Chemometric tools were applied for the filtering and the analysis of UHPLC-QTOF-MS(E) data. Time kinetics could be assessed with N-way projections to latent structures discriminant analysis (N-PLS-DA) and a detection window was confirmed. Orthogonal projections to latent structures discriminant analysis (O-PLS-DA) classification models were evaluated in a second step to assess the predictive power of both known metabolites and unknown compounds. A shared and unique structure plot (SUS-plot) analysis was performed to select the most promising unknown candidates and receiver operating characteristic (ROC) curves were computed to assess specificity criteria applied in routine doping control. This approach underlined the pertinence to monitor both glucuronide and sulphate steroid conjugates and include them in the athletes passport, while promising biomarkers were also highlighted.
Resumo:
Ces dernières années, de nombreuses recherches ont mis en évidence les effets toxiques des micropolluants organiques pour les espèces de nos lacs et rivières. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, alors que les organismes sont exposés tous les jours à des milliers de substances en mélange. Or les effets de ces cocktails ne sont pas négligeables. Cette thèse de doctorat s'est ainsi intéressée aux modèles permettant de prédire le risque environnemental de ces cocktails pour le milieu aquatique. Le principal objectif a été d'évaluer le risque écologique des mélanges de substances chimiques mesurées dans le Léman, mais aussi d'apporter un regard critique sur les méthodologies utilisées afin de proposer certaines adaptations pour une meilleure estimation du risque. Dans la première partie de ce travail, le risque des mélanges de pesticides et médicaments pour le Rhône et pour le Léman a été établi en utilisant des approches envisagées notamment dans la législation européenne. Il s'agit d'approches de « screening », c'est-à-dire permettant une évaluation générale du risque des mélanges. Une telle approche permet de mettre en évidence les substances les plus problématiques, c'est-à-dire contribuant le plus à la toxicité du mélange. Dans notre cas, il s'agit essentiellement de 4 pesticides. L'étude met également en évidence que toutes les substances, même en trace infime, contribuent à l'effet du mélange. Cette constatation a des implications en terme de gestion de l'environnement. En effet, ceci implique qu'il faut réduire toutes les sources de polluants, et pas seulement les plus problématiques. Mais l'approche proposée présente également un biais important au niveau conceptuel, ce qui rend son utilisation discutable, en dehors d'un screening, et nécessiterait une adaptation au niveau des facteurs de sécurité employés. Dans une deuxième partie, l'étude s'est portée sur l'utilisation des modèles de mélanges dans le calcul de risque environnemental. En effet, les modèles de mélanges ont été développés et validés espèce par espèce, et non pour une évaluation sur l'écosystème en entier. Leur utilisation devrait donc passer par un calcul par espèce, ce qui est rarement fait dû au manque de données écotoxicologiques à disposition. Le but a été donc de comparer, avec des valeurs générées aléatoirement, le calcul de risque effectué selon une méthode rigoureuse, espèce par espèce, avec celui effectué classiquement où les modèles sont appliqués sur l'ensemble de la communauté sans tenir compte des variations inter-espèces. Les résultats sont dans la majorité des cas similaires, ce qui valide l'approche utilisée traditionnellement. En revanche, ce travail a permis de déterminer certains cas où l'application classique peut conduire à une sous- ou sur-estimation du risque. Enfin, une dernière partie de cette thèse s'est intéressée à l'influence que les cocktails de micropolluants ont pu avoir sur les communautés in situ. Pour ce faire, une approche en deux temps a été adoptée. Tout d'abord la toxicité de quatorze herbicides détectés dans le Léman a été déterminée. Sur la période étudiée, de 2004 à 2009, cette toxicité due aux herbicides a diminué, passant de 4% d'espèces affectées à moins de 1%. Ensuite, la question était de savoir si cette diminution de toxicité avait un impact sur le développement de certaines espèces au sein de la communauté des algues. Pour ce faire, l'utilisation statistique a permis d'isoler d'autres facteurs pouvant avoir une influence sur la flore, comme la température de l'eau ou la présence de phosphates, et ainsi de constater quelles espèces se sont révélées avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps. Fait intéressant, une partie d'entre-elles avait déjà montré des comportements similaires dans des études en mésocosmes. En conclusion, ce travail montre qu'il existe des modèles robustes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques, et qu'ils peuvent être utilisés pour expliquer le rôle des substances dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application. - Depuis plusieurs années, les risques que posent les micropolluants organiques pour le milieu aquatique préoccupent grandement les scientifiques ainsi que notre société. En effet, de nombreuses recherches ont mis en évidence les effets toxiques que peuvent avoir ces substances chimiques sur les espèces de nos lacs et rivières, quand elles se retrouvent exposées à des concentrations aiguës ou chroniques. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, c'est à dire considérées séparément. Actuellement, il en est de même dans les procédures de régulation européennes, concernant la partie évaluation du risque pour l'environnement d'une substance. Or, les organismes sont exposés tous les jours à des milliers de substances en mélange, et les effets de ces "cocktails" ne sont pas négligeables. L'évaluation du risque écologique que pose ces mélanges de substances doit donc être abordé par de la manière la plus appropriée et la plus fiable possible. Dans la première partie de cette thèse, nous nous sommes intéressés aux méthodes actuellement envisagées à être intégrées dans les législations européennes pour l'évaluation du risque des mélanges pour le milieu aquatique. Ces méthodes sont basées sur le modèle d'addition des concentrations, avec l'utilisation des valeurs de concentrations des substances estimées sans effet dans le milieu (PNEC), ou à partir des valeurs des concentrations d'effet (CE50) sur certaines espèces d'un niveau trophique avec la prise en compte de facteurs de sécurité. Nous avons appliqué ces méthodes à deux cas spécifiques, le lac Léman et le Rhône situés en Suisse, et discuté les résultats de ces applications. Ces premières étapes d'évaluation ont montré que le risque des mélanges pour ces cas d'étude atteint rapidement une valeur au dessus d'un seuil critique. Cette valeur atteinte est généralement due à deux ou trois substances principales. Les procédures proposées permettent donc d'identifier les substances les plus problématiques pour lesquelles des mesures de gestion, telles que la réduction de leur entrée dans le milieu aquatique, devraient être envisagées. Cependant, nous avons également constaté que le niveau de risque associé à ces mélanges de substances n'est pas négligeable, même sans tenir compte de ces substances principales. En effet, l'accumulation des substances, même en traces infimes, atteint un seuil critique, ce qui devient plus difficile en terme de gestion du risque. En outre, nous avons souligné un manque de fiabilité dans ces procédures, qui peuvent conduire à des résultats contradictoires en terme de risque. Ceci est lié à l'incompatibilité des facteurs de sécurité utilisés dans les différentes méthodes. Dans la deuxième partie de la thèse, nous avons étudié la fiabilité de méthodes plus avancées dans la prédiction de l'effet des mélanges pour les communautés évoluant dans le système aquatique. Ces méthodes reposent sur le modèle d'addition des concentrations (CA) ou d'addition des réponses (RA) appliqués sur les courbes de distribution de la sensibilité des espèces (SSD) aux substances. En effet, les modèles de mélanges ont été développés et validés pour être appliqués espèce par espèce, et non pas sur plusieurs espèces agrégées simultanément dans les courbes SSD. Nous avons ainsi proposé une procédure plus rigoureuse, pour l'évaluation du risque d'un mélange, qui serait d'appliquer d'abord les modèles CA ou RA à chaque espèce séparément, et, dans une deuxième étape, combiner les résultats afin d'établir une courbe SSD du mélange. Malheureusement, cette méthode n'est pas applicable dans la plupart des cas, car elle nécessite trop de données généralement indisponibles. Par conséquent, nous avons comparé, avec des valeurs générées aléatoirement, le calcul de risque effectué selon cette méthode plus rigoureuse, avec celle effectuée traditionnellement, afin de caractériser la robustesse de cette approche qui consiste à appliquer les modèles de mélange sur les courbes SSD. Nos résultats ont montré que l'utilisation de CA directement sur les SSDs peut conduire à une sous-estimation de la concentration du mélange affectant 5 % ou 50% des espèces, en particulier lorsque les substances présentent un grand écart- type dans leur distribution de la sensibilité des espèces. L'application du modèle RA peut quant à lui conduire à une sur- ou sous-estimations, principalement en fonction de la pente des courbes dose- réponse de chaque espèce composant les SSDs. La sous-estimation avec RA devient potentiellement importante lorsque le rapport entre la EC50 et la EC10 de la courbe dose-réponse des espèces est plus petit que 100. Toutefois, la plupart des substances, selon des cas réels, présentent des données d' écotoxicité qui font que le risque du mélange calculé par la méthode des modèles appliqués directement sur les SSDs reste cohérent et surestimerait plutôt légèrement le risque. Ces résultats valident ainsi l'approche utilisée traditionnellement. Néanmoins, il faut garder à l'esprit cette source d'erreur lorsqu'on procède à une évaluation du risque d'un mélange avec cette méthode traditionnelle, en particulier quand les SSD présentent une distribution des données en dehors des limites déterminées dans cette étude. Enfin, dans la dernière partie de cette thèse, nous avons confronté des prédictions de l'effet de mélange avec des changements biologiques observés dans l'environnement. Dans cette étude, nous avons utilisé des données venant d'un suivi à long terme d'un grand lac européen, le lac Léman, ce qui offrait la possibilité d'évaluer dans quelle mesure la prédiction de la toxicité des mélanges d'herbicide expliquait les changements dans la composition de la communauté phytoplanctonique. Ceci à côté d'autres paramètres classiques de limnologie tels que les nutriments. Pour atteindre cet objectif, nous avons déterminé la toxicité des mélanges sur plusieurs années de 14 herbicides régulièrement détectés dans le lac, en utilisant les modèles CA et RA avec les courbes de distribution de la sensibilité des espèces. Un gradient temporel de toxicité décroissant a pu être constaté de 2004 à 2009. Une analyse de redondance et de redondance partielle, a montré que ce gradient explique une partie significative de la variation de la composition de la communauté phytoplanctonique, même après avoir enlevé l'effet de toutes les autres co-variables. De plus, certaines espèces révélées pour avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps, ont montré des comportements similaires dans des études en mésocosmes. On peut en conclure que la toxicité du mélange herbicide est l'un des paramètres clés pour expliquer les changements de phytoplancton dans le lac Léman. En conclusion, il existe diverses méthodes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques et celui-ci peut jouer un rôle dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application, avant d'utiliser leurs résultats pour la gestion des risques environnementaux. - For several years now, the scientists as well as the society is concerned by the aquatic risk organic micropollutants may pose. Indeed, several researches have shown the toxic effects these substances may induce on organisms living in our lakes or rivers, especially when they are exposed to acute or chronic concentrations. However, most of the studies focused on the toxicity of single compounds, i.e. considered individually. The same also goes in the current European regulations concerning the risk assessment procedures for the environment of these substances. But aquatic organisms are typically exposed every day simultaneously to thousands of organic compounds. The toxic effects resulting of these "cocktails" cannot be neglected. The ecological risk assessment of mixtures of such compounds has therefore to be addressed by scientists in the most reliable and appropriate way. In the first part of this thesis, the procedures currently envisioned for the aquatic mixture risk assessment in European legislations are described. These methodologies are based on the mixture model of concentration addition and the use of the predicted no effect concentrations (PNEC) or effect concentrations (EC50) with assessment factors. These principal approaches were applied to two specific case studies, Lake Geneva and the River Rhône in Switzerland, including a discussion of the outcomes of such applications. These first level assessments showed that the mixture risks for these studied cases exceeded rapidly the critical value. This exceeding is generally due to two or three main substances. The proposed procedures allow therefore the identification of the most problematic substances for which management measures, such as a reduction of the entrance to the aquatic environment, should be envisioned. However, it was also showed that the risk levels associated with mixtures of compounds are not negligible, even without considering these main substances. Indeed, it is the sum of the substances that is problematic, which is more challenging in term of risk management. Moreover, a lack of reliability in the procedures was highlighted, which can lead to contradictory results in terms of risk. This result is linked to the inconsistency in the assessment factors applied in the different methods. In the second part of the thesis, the reliability of the more advanced procedures to predict the mixture effect to communities in the aquatic system were investigated. These established methodologies combine the model of concentration addition (CA) or response addition (RA) with species sensitivity distribution curves (SSD). Indeed, the mixture effect predictions were shown to be consistent only when the mixture models are applied on a single species, and not on several species simultaneously aggregated to SSDs. Hence, A more stringent procedure for mixture risk assessment is proposed, that would be to apply first the CA or RA models to each species separately and, in a second step, to combine the results to build an SSD for a mixture. Unfortunately, this methodology is not applicable in most cases, because it requires large data sets usually not available. Therefore, the differences between the two methodologies were studied with datasets created artificially to characterize the robustness of the traditional approach applying models on species sensitivity distribution. The results showed that the use of CA on SSD directly might lead to underestimations of the mixture concentration affecting 5% or 50% of species, especially when substances present a large standard deviation of the distribution from the sensitivity of the species. The application of RA can lead to over- or underestimates, depending mainly on the slope of the dose-response curves of the individual species. The potential underestimation with RA becomes important when the ratio between the EC50 and the EC10 for the dose-response curve of the species composing the SSD are smaller than 100. However, considering common real cases of ecotoxicity data for substances, the mixture risk calculated by the methodology applying mixture models directly on SSDs remains consistent and would rather slightly overestimate the risk. These results can be used as a theoretical validation of the currently applied methodology. Nevertheless, when assessing the risk of mixtures, one has to keep in mind this source of error with this classical methodology, especially when SSDs present a distribution of the data outside the range determined in this study Finally, in the last part of this thesis, we confronted the mixture effect predictions with biological changes observed in the environment. In this study, long-term monitoring of a European great lake, Lake Geneva, provides the opportunity to assess to what extent the predicted toxicity of herbicide mixtures explains the changes in the composition of the phytoplankton community next to other classical limnology parameters such as nutrients. To reach this goal, the gradient of the mixture toxicity of 14 herbicides regularly detected in the lake was calculated, using concentration addition and response addition models. A decreasing temporal gradient of toxicity was observed from 2004 to 2009. Redundancy analysis and partial redundancy analysis showed that this gradient explains a significant portion of the variation in phytoplankton community composition, even when having removed the effect of all other co-variables. Moreover, some species that were revealed to be influenced positively or negatively, by the decrease of toxicity in the lake over time, showed similar behaviors in mesocosms studies. It could be concluded that the herbicide mixture toxicity is one of the key parameters to explain phytoplankton changes in Lake Geneva. To conclude, different methods exist to predict the risk of mixture in the ecosystems. But their reliability varies depending on the underlying hypotheses. One should therefore carefully consider these hypotheses, as well as the limits of the approaches, before using the results for environmental risk management
Resumo:
PURPOSE: To ascertain the prevalence of piercing among a nationally representative sample of adolescents; to assess whether having a piercing is a marker for risk behaviors; and to determine whether having more than one piercing is a cumulative marker for risk behaviors. METHODS: Data were drawn from a cross-sectional survey of a nationally representative sample of adolescents aged 16 to 20 years (N=7548). Controlling for background variables, pierced and non-pierced youth were compared on risk behaviors related to drug use, sexual behavior, and suicide. In a second step, adolescents having one piercing were compared with those having more than one. In both cases, statistically significant variables in the bivariate analysis were included in a logistic regression. Analyses were conducted separately by gender. RESULTS: Overall, 20.2% of our sample had a piercing (excluding earlobes), and it was significantly more prevalent among females than among males (33.8% vs. 7.4%; P<.001). In the bivariate analysis, all risk behaviors were significantly associated with having a piercing, and most of them remained significant in the multivariate analysis. One third of pierced subjects had more than one piercing, with no gender difference in prevalence. In the multivariate analysis, females with more than one piercing were more likely to have had multiple partners and to use cannabis, while no differences were noted for males. CONCLUSIONS: Body piercing is becoming popular among Swiss adolescents, especially females. Having a body piercing seems to be a risk marker for risk behaviors. Moreover, having multiple piercings is a cumulative risk marker for females.
Resumo:
Debris flows are among the most dangerous processes in mountainous areas due to their rapid rate of movement and long runout zone. Sudden and rather unexpected impacts produce not only damages to buildings and infrastructure but also threaten human lives. Medium- to regional-scale susceptibility analyses allow the identification of the most endangered areas and suggest where further detailed studies have to be carried out. Since data availability for larger regions is mostly the key limiting factor, empirical models with low data requirements are suitable for first overviews. In this study a susceptibility analysis was carried out for the Barcelonnette Basin, situated in the southern French Alps. By means of a methodology based on empirical rules for source identification and the empirical angle of reach concept for the 2-D runout computation, a worst-case scenario was first modelled. In a second step, scenarios for high, medium and low frequency events were developed. A comparison with the footprints of a few mapped events indicates reasonable results but suggests a high dependency on the quality of the digital elevation model. This fact emphasises the need for a careful interpretation of the results while remaining conscious of the inherent assumptions of the model used and quality of the input data.
Resumo:
Ce travail de recherche dresse un panorama de l'état du développement des pratiques d'agriculture urbaine en Suisse et analyse le potentiel que celles-ci pourraient y développer, compte tenu des particularités du contexte national. La démarche adoptée suit une logique allant du général au particulier, de la théorie à la pratique, du descriptif vers l'analytique. Dans un premier temps, l'agriculture urbaine est abordée sous un angle conceptuel, comprenant un retour historique sur la relation ville-campagne et sur l'apparition récente du terme d'agriculture urbaine, un tour d'horizon de la littérature sur le sujet, une revue de ses diverses approches scientifiques et la circonscription des enjeux de sa définition. Dans un deuxième temps, l'agriculture urbaine est envisagée sous sa forme pratique, en Suisse comme à l'étranger. En ressort un inventaire étendu de ses différents types de mises en application, auquel correspond un panel d'atouts identifiés selon les trois versants du développement durable : social, écologique et économique. En troisième lieu les spécificités du contexte helvétique sont étudiées afin de comprendre quel est le cadre dans lequel le potentiel de l'agriculture urbaine pourrait se développer. Finalement, ce sont deux cas concrets d'agriculture urbaine qui sont analysés et évalués dans les détails, selon l'approche dite des régimes institutionnels des ressources naturelles (RIRN): le « plantage » lausannois du quartier de la Bourdonnette et le Stadiongarten dans le quartier Kreis 5 à Zurich. Au fil de cette recherche, il apparaît que l'agriculture urbaine révèle toute une série d'avantages en termes de développement durable, alors même que les villes suisses sont unanimement reconnues comme présentant un déficit dans ce domaine. De même, malgré les bienfaits importants que présentent ses diverses pratiques, l'agriculture urbaine reste encore très peu répandue en Suisse, le concept lui-même n'apparaissant que très rarement dans le discours des pouvoirs publics. Le principal frein à l'agriculture en ville est identifié comme étant le manque d'espace disponible dans les agglomérations, contrainte pourtant largement surmontable en y regardant de plus près. De par sa configuration topographique, le territoire suisse est particulièrement sujet à une étroite proximité entre espaces urbains et étendues agricoles, accroissant de ce fait la problématique de l'étalement urbain et du mitage du paysage. Parmi les enjeux de la lutte contre ces phénomènes concomitants, l'agriculture urbaine aurait un rôle important à jouer. En conclusion, une série de recommandations sont proposées afin que les projets d'agriculture urbaine puissent se développer et perdurer en Suisse. Abstract : This research paper provides an overview of the state of development of urban agriculture practices in Switzerland. It analyzes their potential of expansion while taking into account the particularities of the national context. The method follows a general to particular, theory to practice and descriptive to analytical reasoning. Firstly, urban agriculture is approached through a conceptual view, including a historical overview of the relationship between town and country and of the recent appearance of the term "urban agriculture". An outline of the literature on the subject, an examination of its various scientific approaches and riding issues of its definition are elaborated as well. In a second step, urban agriculture is considered in its practical form, both in Switzerland and abroad. From this we created an extensive inventory of various types of implementations which corresponds to a panel of assets identified according to the three aspects of sustainable development: social, ecology and economics. Thirdly the specificities of Swiss context are studied in order to understand the frame in which the potential of urban agriculture could be developed. Finally, two case studies of urban agriculture are analyzed and evaluated in detail, according to the so-called institutional regimes of natural resources (RIRN) approach: the "plantage" of the Bourdonnette neighborhood in Lausanne and the "Stadiongarten" in the Kreis 5 neighborhood in Zurich. Throughout this research, urban agriculture reveals a number of advantages in terms of sustainable development, even though the Swiss cities are unanimously recognized as having a deficit in this area. As well, despite the significant benefits that are its various practices, urban agriculture is still very uncommon in Switzerland, the concept itself appearing only rarely in public debates. The main obstacle to city agriculture is identified as the lack of available space in urban areas, however this constraint can easily be surpassed. By its topographical configuration, Switzerland is particularly prone to a close proximity between urban and agricultural spaces, thereby increasing the problems of urban sprawl. Among the stakes in the struggle against these interrelated phenomena, urban agriculture could play an important role. In conclusion, a series of recommendations are proposed so that urban agriculture projects can grow and persist in Switzerland.
Resumo:
Robust estimators for accelerated failure time models with asymmetric (or symmetric) error distribution and censored observations are proposed. It is assumed that the error model belongs to a log-location-scale family of distributions and that the mean response is the parameter of interest. Since scale is a main component of mean, scale is not treated as a nuisance parameter. A three steps procedure is proposed. In the first step, an initial high breakdown point S estimate is computed. In the second step, observations that are unlikely under the estimated model are rejected or down weighted. Finally, a weighted maximum likelihood estimate is computed. To define the estimates, functions of censored residuals are replaced by their estimated conditional expectation given that the response is larger than the observed censored value. The rejection rule in the second step is based on an adaptive cut-off that, asymptotically, does not reject any observation when the data are generat ed according to the model. Therefore, the final estimate attains full efficiency at the model, with respect to the maximum likelihood estimate, while maintaining the breakdown point of the initial estimator. Asymptotic results are provided. The new procedure is evaluated with the help of Monte Carlo simulations. Two examples with real data are discussed.
Resumo:
This article describes the application of a recently developed general unknown screening (GUS) strategy based on LC coupled to a hybrid linear IT-triple quadrupole mass spectrometer (LC-MS/MS-LIT) for the simultaneous detection and identification of drug metabolites following in vitro incubation with human liver microsomes. The histamine H1 receptor antagonist loratadine was chosen as a model compound to demonstrate the interest of such approach, because of its previously described complex and extensive metabolism. Detection and mass spectral characterization were based on data-dependent acquisition, switching between a survey scan acquired in the ion-trapping Q3 scan mode with dynamic subtraction of background noise, and a dependent scan in the ion-trapping product ion scan mode of automatically selected parent ions. In addition, the MS(3) mode was used in a second step to confirm the structure of a few fragment ions. The sensitivity of the ion-trapping modes combined with the selectivity of the triple quadrupole modes allowed, with only one injection, the detection and identification of 17 phase I metabolites of loratadine. The GUS procedure used in this study may be applicable as a generic technique for the characterization of drug metabolites after in vitro incubation, as well as probably in vivo experiments.