180 resultados para Risk Impact
Resumo:
Résumé Introduction : Les patients nécessitant une prise en charge prolongée en milieu de soins intensifs et présentant une évolution compliquée, développent une réponse métabolique intense caractérisée généralement par un hypermétabolisme et un catabolisme protéique. La sévérité de leur atteinte pathologique expose ces patients à la malnutrition, due principalement à un apport nutritionnel insuffisant, et entraînant une balance énergétique déficitaire. Dans un nombre important d'unités de soins intensifs la nutrition des patients n'apparaît pas comme un objectif prioritaire de la prise en charge. En menant une étude prospective d'observation afin d'analyser la relation entre la balance énergétique et le pronostic clinique des patients avec séjours prolongés en soins intensifs, nous souhaitions changer cette attitude et démonter l'effet délétère de la malnutrition chez ce type de patient. Méthodes : Sur une période de 2 ans, tous les patients, dont le séjour en soins intensifs fut de 5 jours ou plus, ont été enrôlés. Les besoins en énergie pour chaque patient ont été déterminés soit par calorimétrie indirecte, soit au moyen d'une formule prenant en compte le poids du patient (30 kcal/kg/jour). Les patients ayant bénéficié d'une calorimétrie indirecte ont par ailleurs vérifié la justesse de la formule appliquée. L'âge, le sexe le poids préopératoire, la taille, et le « Body mass index » index de masse corporelle reconnu en milieu clinique ont été relevés. L'énergie délivrée l'était soit sous forme nutritionnelle (administration de nutrition entérale, parentérale ou mixte) soit sous forme non-nutritionnelle (perfusions : soluté glucosé, apport lipidique non nutritionnel). Les données de nutrition (cible théorique, cible prescrite, énergie nutritionnelle, énergie non-nutritionnelle, énergie totale, balance énergétique nutritionnelle, balance énergétique totale), et d'évolution clinique (nombre des jours de ventilation mécanique, nombre d'infections, utilisation des antibiotiques, durée du séjour, complications neurologiques, respiratoires gastro-intestinales, cardiovasculaires, rénales et hépatiques, scores de gravité pour patients en soins intensifs, valeurs hématologiques, sériques, microbiologiques) ont été analysées pour chacun des 669 jours de soins intensifs vécus par un total de 48 patients. Résultats : 48 patients de 57±16 ans dont le séjour a varié entre 5 et 49 jours (motif d'admission : polytraumatisés 10; chirurgie cardiaque 13; insuffisance respiratoire 7; pathologie gastro-intestinale 3; sepsis 3; transplantation 4; autre 8) ont été retenus. Si nous n'avons pu démontrer une relation entre la balance énergétique et plus particulièrement, le déficit énergétique, et la mortalité, il existe une relation hautement significative entre le déficit énergétique et la morbidité, à savoir les complications et les infections, qui prolongent naturellement la durée du séjour. De plus, bien que l'étude ne comporte aucune intervention et que nous ne puissions avancer qu'il existe une relation de cause à effet, l'analyse par régression multiple montre que le facteur pronostic le plus fiable est justement la balance énergétique, au détriment des scores habituellement utilisés en soins intensifs. L'évolution est indépendante tant de l'âge et du sexe, que du status nutritionnel préopératoire. L'étude ne prévoyait pas de récolter des données économiques : nous ne pouvons pas, dès lors, affirmer que l'augmentation des coûts engendrée par un séjour prolongé en unité de soins intensifs est induite par un déficit énergétique, même si le bon sens nous laisse penser qu'un séjour plus court engendre un coût moindre. Cette étude attire aussi l'attention sur l'origine du déficit énergétique : il se creuse au cours de la première semaine en soins intensifs, et pourrait donc être prévenu par une intervention nutritionnelle précoce, alors que les recommandations actuelles préconisent un apport énergétique, sous forme de nutrition artificielle, qu'à partir de 48 heures de séjour aux soins intensifs. Conclusions : L'étude montre que pour les patients de soins intensifs les plus graves, la balance énergétique devrait être considérée comme un objectif important de la prise en charge, nécessitant l'application d'un protocole de nutrition précoce. Enfin comme l'évolution à l'admission des patients est souvent imprévisible, et que le déficit s'installe dès la première semaine, il est légitime de s'interroger sur la nécessité d'appliquer ce protocole à tous les patients de soins intensifs et ceci dès leur admission. Summary Background and aims: Critically ill patients with complicated evolution are frequently hypermetabolic, catabolic, and at risk of underfeeding. The study aimed at assessing the relationship between energy balance and outcome in critically ill patients. Methods: Prospective observational study conducted in consecutive patients staying 5 days in the surgical ICU of a University hospital. Demographic data, time to feeding, route, energy delivery, and outcome were recorded. Energy balance was calculated as energy delivery minus target. Data in means+ SD, linear regressions between energy balance and outcome variables. Results: Forty eight patients aged 57±16 years were investigated; complete data are available in 669 days. Mechanical ventilation lasted 11±8 days, ICU stay 15+9 was days, and 30-days mortality was 38%. Time to feeding was 3.1 ±2.2 days. Enteral nutrition was the most frequent route with 433 days. Mean daily energy delivery was 1090±930 kcal. Combining enteral and parenteral nutrition achieved highest energy delivery. Cumulated energy balance was between -12,600+ 10,520 kcal, and correlated with complications (P<0.001), already after 1 week. Conclusion: Negative energy balances were correlated with increasing number of complications, particularly infections. Energy debt appears as a promising tool for nutritional follow-up, which should be further tested. Delaying initiation of nutritional support exposes the patients to energy deficits that cannot be compensated later on.
Resumo:
BACKGROUND: Whole pelvis intensity modulated radiotherapy (IMRT) is increasingly being used to treat cervical cancer aiming to reduce side effects. Encouraged by this, some groups have proposed the use of simultaneous integrated boost (SIB) to target the tumor, either to get a higher tumoricidal effect or to replace brachytherapy. Nevertheless, physiological organ movement and rapid tumor regression throughout treatment might substantially reduce any benefit of this approach. PURPOSE: To evaluate the clinical target volume - simultaneous integrated boost (CTV-SIB) regression and motion during chemo-radiotherapy (CRT) for cervical cancer, and to monitor treatment progress dosimetrically and volumetrically to ensure treatment goals are met. METHODS AND MATERIALS: Ten patients treated with standard doses of CRT and brachytherapy were retrospectively re-planned using a helical Tomotherapy - SIB technique for the hypothetical scenario of this feasibility study. Target and organs at risk (OAR) were contoured on deformable fused planning-computed tomography and megavoltage computed tomography images. The CTV-SIB volume regression was determined. The center of mass (CM) was used to evaluate the degree of motion. The Dice's similarity coefficient (DSC) was used to assess the spatial overlap of CTV-SIBs between scans. A cumulative dose-volume histogram modeled estimated delivered doses. RESULTS: The CTV-SIB relative reduction was between 31 and 70%. The mean maximum CM change was 12.5, 9, and 3 mm in the superior-inferior, antero-posterior, and right-left dimensions, respectively. The CTV-SIB-DSC approached 1 in the first week of treatment, indicating almost perfect overlap. CTV-SIB-DSC regressed linearly during therapy, and by the end of treatment was 0.5, indicating 50% discordance. Two patients received less than 95% of the prescribed dose. Much higher doses to the OAR were observed. A multiple regression analysis showed a significant interaction between CTV-SIB reduction and OAR dose increase. CONCLUSIONS: The CTV-SIB had important regression and motion during CRT, receiving lower therapeutic doses than expected. The OAR had unpredictable shifts and received higher doses. The use of SIB without frequent adaptation of the treatment plan exposes cervical cancer patients to an unpredictable risk of under-dosing the target and/or overdosing adjacent critical structures. In that scenario, brachytherapy continues to be the gold standard approach.
Resumo:
INTRODUCTION: Psychiatric disorders are among the leading causes of disability in Western societies. Selective serotonin reuptake inhibitors (SSRIs) are the most frequently prescribed antidepressant drugs during pregnancy and the postpartum period. Over the last decade, conflicting findings regarding the safety of SSRI drugs during pregnancy and lactation have questioned whether such treatments should be used during this period. AREAS COVERED: We discuss the main criteria that should be considered in the risk/benefit assessment of SSRI treatment in pregnant and/or breastfeeding patients (i.e., risks associated with SSRI use and with untreated depression as well as therapeutic benefits of SSRI and some alternative treatment strategies). For each criterion, available evidence has been synthesized and stratified by methodological quality as well as discussed for clinical impact. EXPERT OPINION: Currently, it is impossible for most of the evaluated outcomes to distinguish between the effects related to the mother's underlying disease and those inherent to SSRI treatment. In women suffering from major depression and responding to a pharmacological treatment, introduction or continuation of an SSRI should be encouraged in order to prevent maternal complications and to preserve maternal-infant bonding. The choice of the right drug depends above all on individual patient characteristics such as prior treatment response, diagnoses and comorbid conditions.
Resumo:
Ces dernières années, de nombreuses recherches ont mis en évidence les effets toxiques des micropolluants organiques pour les espèces de nos lacs et rivières. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, alors que les organismes sont exposés tous les jours à des milliers de substances en mélange. Or les effets de ces cocktails ne sont pas négligeables. Cette thèse de doctorat s'est ainsi intéressée aux modèles permettant de prédire le risque environnemental de ces cocktails pour le milieu aquatique. Le principal objectif a été d'évaluer le risque écologique des mélanges de substances chimiques mesurées dans le Léman, mais aussi d'apporter un regard critique sur les méthodologies utilisées afin de proposer certaines adaptations pour une meilleure estimation du risque. Dans la première partie de ce travail, le risque des mélanges de pesticides et médicaments pour le Rhône et pour le Léman a été établi en utilisant des approches envisagées notamment dans la législation européenne. Il s'agit d'approches de « screening », c'est-à-dire permettant une évaluation générale du risque des mélanges. Une telle approche permet de mettre en évidence les substances les plus problématiques, c'est-à-dire contribuant le plus à la toxicité du mélange. Dans notre cas, il s'agit essentiellement de 4 pesticides. L'étude met également en évidence que toutes les substances, même en trace infime, contribuent à l'effet du mélange. Cette constatation a des implications en terme de gestion de l'environnement. En effet, ceci implique qu'il faut réduire toutes les sources de polluants, et pas seulement les plus problématiques. Mais l'approche proposée présente également un biais important au niveau conceptuel, ce qui rend son utilisation discutable, en dehors d'un screening, et nécessiterait une adaptation au niveau des facteurs de sécurité employés. Dans une deuxième partie, l'étude s'est portée sur l'utilisation des modèles de mélanges dans le calcul de risque environnemental. En effet, les modèles de mélanges ont été développés et validés espèce par espèce, et non pour une évaluation sur l'écosystème en entier. Leur utilisation devrait donc passer par un calcul par espèce, ce qui est rarement fait dû au manque de données écotoxicologiques à disposition. Le but a été donc de comparer, avec des valeurs générées aléatoirement, le calcul de risque effectué selon une méthode rigoureuse, espèce par espèce, avec celui effectué classiquement où les modèles sont appliqués sur l'ensemble de la communauté sans tenir compte des variations inter-espèces. Les résultats sont dans la majorité des cas similaires, ce qui valide l'approche utilisée traditionnellement. En revanche, ce travail a permis de déterminer certains cas où l'application classique peut conduire à une sous- ou sur-estimation du risque. Enfin, une dernière partie de cette thèse s'est intéressée à l'influence que les cocktails de micropolluants ont pu avoir sur les communautés in situ. Pour ce faire, une approche en deux temps a été adoptée. Tout d'abord la toxicité de quatorze herbicides détectés dans le Léman a été déterminée. Sur la période étudiée, de 2004 à 2009, cette toxicité due aux herbicides a diminué, passant de 4% d'espèces affectées à moins de 1%. Ensuite, la question était de savoir si cette diminution de toxicité avait un impact sur le développement de certaines espèces au sein de la communauté des algues. Pour ce faire, l'utilisation statistique a permis d'isoler d'autres facteurs pouvant avoir une influence sur la flore, comme la température de l'eau ou la présence de phosphates, et ainsi de constater quelles espèces se sont révélées avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps. Fait intéressant, une partie d'entre-elles avait déjà montré des comportements similaires dans des études en mésocosmes. En conclusion, ce travail montre qu'il existe des modèles robustes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques, et qu'ils peuvent être utilisés pour expliquer le rôle des substances dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application. - Depuis plusieurs années, les risques que posent les micropolluants organiques pour le milieu aquatique préoccupent grandement les scientifiques ainsi que notre société. En effet, de nombreuses recherches ont mis en évidence les effets toxiques que peuvent avoir ces substances chimiques sur les espèces de nos lacs et rivières, quand elles se retrouvent exposées à des concentrations aiguës ou chroniques. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, c'est à dire considérées séparément. Actuellement, il en est de même dans les procédures de régulation européennes, concernant la partie évaluation du risque pour l'environnement d'une substance. Or, les organismes sont exposés tous les jours à des milliers de substances en mélange, et les effets de ces "cocktails" ne sont pas négligeables. L'évaluation du risque écologique que pose ces mélanges de substances doit donc être abordé par de la manière la plus appropriée et la plus fiable possible. Dans la première partie de cette thèse, nous nous sommes intéressés aux méthodes actuellement envisagées à être intégrées dans les législations européennes pour l'évaluation du risque des mélanges pour le milieu aquatique. Ces méthodes sont basées sur le modèle d'addition des concentrations, avec l'utilisation des valeurs de concentrations des substances estimées sans effet dans le milieu (PNEC), ou à partir des valeurs des concentrations d'effet (CE50) sur certaines espèces d'un niveau trophique avec la prise en compte de facteurs de sécurité. Nous avons appliqué ces méthodes à deux cas spécifiques, le lac Léman et le Rhône situés en Suisse, et discuté les résultats de ces applications. Ces premières étapes d'évaluation ont montré que le risque des mélanges pour ces cas d'étude atteint rapidement une valeur au dessus d'un seuil critique. Cette valeur atteinte est généralement due à deux ou trois substances principales. Les procédures proposées permettent donc d'identifier les substances les plus problématiques pour lesquelles des mesures de gestion, telles que la réduction de leur entrée dans le milieu aquatique, devraient être envisagées. Cependant, nous avons également constaté que le niveau de risque associé à ces mélanges de substances n'est pas négligeable, même sans tenir compte de ces substances principales. En effet, l'accumulation des substances, même en traces infimes, atteint un seuil critique, ce qui devient plus difficile en terme de gestion du risque. En outre, nous avons souligné un manque de fiabilité dans ces procédures, qui peuvent conduire à des résultats contradictoires en terme de risque. Ceci est lié à l'incompatibilité des facteurs de sécurité utilisés dans les différentes méthodes. Dans la deuxième partie de la thèse, nous avons étudié la fiabilité de méthodes plus avancées dans la prédiction de l'effet des mélanges pour les communautés évoluant dans le système aquatique. Ces méthodes reposent sur le modèle d'addition des concentrations (CA) ou d'addition des réponses (RA) appliqués sur les courbes de distribution de la sensibilité des espèces (SSD) aux substances. En effet, les modèles de mélanges ont été développés et validés pour être appliqués espèce par espèce, et non pas sur plusieurs espèces agrégées simultanément dans les courbes SSD. Nous avons ainsi proposé une procédure plus rigoureuse, pour l'évaluation du risque d'un mélange, qui serait d'appliquer d'abord les modèles CA ou RA à chaque espèce séparément, et, dans une deuxième étape, combiner les résultats afin d'établir une courbe SSD du mélange. Malheureusement, cette méthode n'est pas applicable dans la plupart des cas, car elle nécessite trop de données généralement indisponibles. Par conséquent, nous avons comparé, avec des valeurs générées aléatoirement, le calcul de risque effectué selon cette méthode plus rigoureuse, avec celle effectuée traditionnellement, afin de caractériser la robustesse de cette approche qui consiste à appliquer les modèles de mélange sur les courbes SSD. Nos résultats ont montré que l'utilisation de CA directement sur les SSDs peut conduire à une sous-estimation de la concentration du mélange affectant 5 % ou 50% des espèces, en particulier lorsque les substances présentent un grand écart- type dans leur distribution de la sensibilité des espèces. L'application du modèle RA peut quant à lui conduire à une sur- ou sous-estimations, principalement en fonction de la pente des courbes dose- réponse de chaque espèce composant les SSDs. La sous-estimation avec RA devient potentiellement importante lorsque le rapport entre la EC50 et la EC10 de la courbe dose-réponse des espèces est plus petit que 100. Toutefois, la plupart des substances, selon des cas réels, présentent des données d' écotoxicité qui font que le risque du mélange calculé par la méthode des modèles appliqués directement sur les SSDs reste cohérent et surestimerait plutôt légèrement le risque. Ces résultats valident ainsi l'approche utilisée traditionnellement. Néanmoins, il faut garder à l'esprit cette source d'erreur lorsqu'on procède à une évaluation du risque d'un mélange avec cette méthode traditionnelle, en particulier quand les SSD présentent une distribution des données en dehors des limites déterminées dans cette étude. Enfin, dans la dernière partie de cette thèse, nous avons confronté des prédictions de l'effet de mélange avec des changements biologiques observés dans l'environnement. Dans cette étude, nous avons utilisé des données venant d'un suivi à long terme d'un grand lac européen, le lac Léman, ce qui offrait la possibilité d'évaluer dans quelle mesure la prédiction de la toxicité des mélanges d'herbicide expliquait les changements dans la composition de la communauté phytoplanctonique. Ceci à côté d'autres paramètres classiques de limnologie tels que les nutriments. Pour atteindre cet objectif, nous avons déterminé la toxicité des mélanges sur plusieurs années de 14 herbicides régulièrement détectés dans le lac, en utilisant les modèles CA et RA avec les courbes de distribution de la sensibilité des espèces. Un gradient temporel de toxicité décroissant a pu être constaté de 2004 à 2009. Une analyse de redondance et de redondance partielle, a montré que ce gradient explique une partie significative de la variation de la composition de la communauté phytoplanctonique, même après avoir enlevé l'effet de toutes les autres co-variables. De plus, certaines espèces révélées pour avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps, ont montré des comportements similaires dans des études en mésocosmes. On peut en conclure que la toxicité du mélange herbicide est l'un des paramètres clés pour expliquer les changements de phytoplancton dans le lac Léman. En conclusion, il existe diverses méthodes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques et celui-ci peut jouer un rôle dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application, avant d'utiliser leurs résultats pour la gestion des risques environnementaux. - For several years now, the scientists as well as the society is concerned by the aquatic risk organic micropollutants may pose. Indeed, several researches have shown the toxic effects these substances may induce on organisms living in our lakes or rivers, especially when they are exposed to acute or chronic concentrations. However, most of the studies focused on the toxicity of single compounds, i.e. considered individually. The same also goes in the current European regulations concerning the risk assessment procedures for the environment of these substances. But aquatic organisms are typically exposed every day simultaneously to thousands of organic compounds. The toxic effects resulting of these "cocktails" cannot be neglected. The ecological risk assessment of mixtures of such compounds has therefore to be addressed by scientists in the most reliable and appropriate way. In the first part of this thesis, the procedures currently envisioned for the aquatic mixture risk assessment in European legislations are described. These methodologies are based on the mixture model of concentration addition and the use of the predicted no effect concentrations (PNEC) or effect concentrations (EC50) with assessment factors. These principal approaches were applied to two specific case studies, Lake Geneva and the River Rhône in Switzerland, including a discussion of the outcomes of such applications. These first level assessments showed that the mixture risks for these studied cases exceeded rapidly the critical value. This exceeding is generally due to two or three main substances. The proposed procedures allow therefore the identification of the most problematic substances for which management measures, such as a reduction of the entrance to the aquatic environment, should be envisioned. However, it was also showed that the risk levels associated with mixtures of compounds are not negligible, even without considering these main substances. Indeed, it is the sum of the substances that is problematic, which is more challenging in term of risk management. Moreover, a lack of reliability in the procedures was highlighted, which can lead to contradictory results in terms of risk. This result is linked to the inconsistency in the assessment factors applied in the different methods. In the second part of the thesis, the reliability of the more advanced procedures to predict the mixture effect to communities in the aquatic system were investigated. These established methodologies combine the model of concentration addition (CA) or response addition (RA) with species sensitivity distribution curves (SSD). Indeed, the mixture effect predictions were shown to be consistent only when the mixture models are applied on a single species, and not on several species simultaneously aggregated to SSDs. Hence, A more stringent procedure for mixture risk assessment is proposed, that would be to apply first the CA or RA models to each species separately and, in a second step, to combine the results to build an SSD for a mixture. Unfortunately, this methodology is not applicable in most cases, because it requires large data sets usually not available. Therefore, the differences between the two methodologies were studied with datasets created artificially to characterize the robustness of the traditional approach applying models on species sensitivity distribution. The results showed that the use of CA on SSD directly might lead to underestimations of the mixture concentration affecting 5% or 50% of species, especially when substances present a large standard deviation of the distribution from the sensitivity of the species. The application of RA can lead to over- or underestimates, depending mainly on the slope of the dose-response curves of the individual species. The potential underestimation with RA becomes important when the ratio between the EC50 and the EC10 for the dose-response curve of the species composing the SSD are smaller than 100. However, considering common real cases of ecotoxicity data for substances, the mixture risk calculated by the methodology applying mixture models directly on SSDs remains consistent and would rather slightly overestimate the risk. These results can be used as a theoretical validation of the currently applied methodology. Nevertheless, when assessing the risk of mixtures, one has to keep in mind this source of error with this classical methodology, especially when SSDs present a distribution of the data outside the range determined in this study Finally, in the last part of this thesis, we confronted the mixture effect predictions with biological changes observed in the environment. In this study, long-term monitoring of a European great lake, Lake Geneva, provides the opportunity to assess to what extent the predicted toxicity of herbicide mixtures explains the changes in the composition of the phytoplankton community next to other classical limnology parameters such as nutrients. To reach this goal, the gradient of the mixture toxicity of 14 herbicides regularly detected in the lake was calculated, using concentration addition and response addition models. A decreasing temporal gradient of toxicity was observed from 2004 to 2009. Redundancy analysis and partial redundancy analysis showed that this gradient explains a significant portion of the variation in phytoplankton community composition, even when having removed the effect of all other co-variables. Moreover, some species that were revealed to be influenced positively or negatively, by the decrease of toxicity in the lake over time, showed similar behaviors in mesocosms studies. It could be concluded that the herbicide mixture toxicity is one of the key parameters to explain phytoplankton changes in Lake Geneva. To conclude, different methods exist to predict the risk of mixture in the ecosystems. But their reliability varies depending on the underlying hypotheses. One should therefore carefully consider these hypotheses, as well as the limits of the approaches, before using the results for environmental risk management
Resumo:
BACKGROUND AND AIMS: Obesity increases the risk for cardiovascular risk factors (CVRFs), including hypertension, dyslipidaemia and type 2 diabetes. In this study, we assessed the burden of overweight and obesity on CVRFs in Switzerland, using Swiss-specific population attributable fractions (PAFs). METHODS AND RESULTS: The number of cases of CVRFs that could have been prevented if the increase in overweight and obesity in Switzerland had been contained was estimated using gender-specific, age- and smoking-adjusted PAFs for overweight and obesity. PAFs were estimated from the Swiss Health Survey 2007 (self-reported) and the CoLaus study (measured) data. PAFs from self-reported were lower than from measured data. Using measured data, overweight and obesity contributed to 38% of hypertension cases in men (32% in women). In men, overweight had a larger impact than obesity (22.2% and 15.6%, respectively), while the opposite was observed for women (13.6% and 18.1%, respectively). In men, 37% of dyslipidaemia (30% in women) could be attributed to overweight and obesity; overweight had a higher contribution than obesity in both sexes. In men, 57% of type 2 diabetes (62% in women) was attributable to overweight and obesity; obesity had a larger impact than overweight in both sexes. Overall, approximately 27,000 cases of type 2 diabetes, 63,000 cases of high blood pressure and 37,000 cases of dyslipidaemia could have been avoided if overweight and obesity levels were maintained at 1992 levels. CONCLUSION: A large proportion of CVRFs is attributable to overweight and/or obesity and could have been prevented by containing the overweight/obesity epidemic.
Resumo:
BACKGROUND: Alcohol use causes high burden of disease and injury globally. Switzerland has a high consumption of alcohol, almost twice the global average. Alcohol-attributable deaths and years of life lost in Switzerland were estimated by age and sex for the year 2011. Additionally, the impact of heavy drinking (40+grams/day for women and 60+g/day for men) was estimated. METHODS: Alcohol consumption estimates were based on the Addiction Monitoring in Switzerland study and were adjusted to per capita consumption based on sales data. Mortality data were taken from the Swiss mortality register. Methodology of the Comparative Risk Assessment for alcohol was used to estimate alcohol-attributable fractions. RESULTS: Alcohol use caused 1,600 (95% CI: 1,472 - 1,728) net deaths (1,768 deaths caused, 168 deaths prevented) among 15 to 74 year olds, corresponding to 8.7% of all deaths (men: 1,181 deaths; women: 419 deaths). Overall, 42,627 years of life (9.7%, 95% CI: 40,245 - 45,008) were lost due to alcohol. Main causes of alcohol-attributable mortality were injuries at younger ages (15-34 years), with increasing age digestive diseases (mainly liver cirrhosis) and cancers (particularly breast cancers among women). The majority (62%) of all alcohol-attributable deaths was caused by chronic heavy drinking (men: 67%; women: 48 %). CONCLUSION: Alcohol is a major cause of premature mortality in Switzerland. Its impact, among young people mainly via injuries, among men mainly through heavy drinking, calls for a mix of preventive actions targeting chronic heavy drinking, binge drinking and mean consumption.
Resumo:
To explore, for the first time, the impact of job insecurity on sexual desire. Cross-sectional analysis of a nationally representative sample of 7247 individuals aged 20-64 years working as full or part-time employees in Switzerland. The logistic regression analysis showed that workers aged 20-49 years perceiving high levels of job insecurity are exposed to a significantly higher risk of decrease of sexual desire compared to the reference group. The risk is 53% higher among men (OR 1.53; 95% CI 1.16-2.01) and 47% for woman (OR 1.47; 1.13-1.91). No increased risk was found for employees aged 50-64 years old. An increasing fear of job loss is associated with a deterioration in sexual desire. These first preliminary findings should promote further epidemiological and clinical prospective studies on the impact of job insecurity on intimate relationships and sexual dysfunction.
Resumo:
BACKGROUND AND OBJECTIVES: Donor cytomegalovirus seropositivity was reported to improve leukemia outcomes in HLA-A2 identical hematopoietic cell transplant (HCT) recipients, due to a possible cross-reactivity of donor HLA-A2-restricted CMV-specific T cells with minor histocompatibility (H) antigen of recipient cells. This study analyzed the role of donor CMV serostatus and HLA-A2 status on leukemia outcomes in a large population of HLA-identical HCT recipients. DESIGN AND METHODS: Leukemia patients transplanted between 1992 and 2003 at the Fred Hutchinson Cancer Research Center were categorized as standard risk [leukemia first remission, chronic myeloid leukemia in chronic phase (CML-CP)] and high risk (advanced disease) patients. Time-to-event analysis was used to evaluate the risk of relapse and death associated with HLA-A2 status and donor CMV serostatus. RESULTS: In standard risk patients, acute leukemia (p<0.001) and sex mismatch (female to male, p=0.004)) independently increased the risk of death, while acute leukemia increased the risk of relapse (p<0.001). In high risk patients acute leukemia (p=0.01), recipient age > or = 40 (p=0.005) and herpes simplex virus (HSV) seropositivity (p<0.001) significantly increased the risk death; HSV seropositivity (p=0.006) increased the risk of relapse. Donor CMV serostatus had no significant effect on mortality or relapse in any HLA group. INTERPRETATION AND CONCLUSION: This epidemiological study did not confirm the previously reported effect of donor CMV serostatus on the outcomes of leukemia in HLA-A2-identical HCT recipients. Addressing the question of cross-reactivity of HLA-A2-restricted CMV-specific T cells with minor H antigens in a clinical study would require knowledge of the patient's minor H antigen genotype. However, because of the unbalanced distribution of HLA-A2-restricted minor H antigens in the population and their incomplete identification, this question might be more appropriately evaluated in in vitro experiments than in a clinical study.
Resumo:
Background: Assertive community treatment (ACT) was reported to be an effective treatment to improve global functioning of ultra-high risk (UHR) adolescents. However, the infl uence of stressful life event (SLE) was not extensively studied which represent our objective. Method: The SLE (encompassing adoption, migration, family member's deceased, sexual or physical abuse, etc.) of 20 UHR adolescents, treated with an ACT model, were rated. 10 adolescents having 0 to 1 SLE (mainly parents' divorce; low SLE group) were compared 10 adolescents with 2 to 5 SLE (high SLE group). The adolescents were assessed at baseline and after treatment with the Health of Nation Outcome Scale for Children and Adolescents (HoNOSCA). The HoNOSCA allowed rating different diffi culties such as behavior, symptoms, disorders and social. Results: First, results on the whole sample indicated signifi cant improvement after ACT (compared to baseline) on the total (P = .04), symptoms (P = .025) and social (P = .009) scores of the HoNOSCA. Second, the improvement on the HoNOSCA's score of the high SLE group were signifi cantly higher for the total (P = .016), symptoms (P = .019) and behavior (P = .033) scores compared to the low SLE group. Discussion/Conclusion: Globally, ACT seems to be an appropriate treatment to enhance global functioning and more specifi cally the social and symptoms diffi culties of UHR adolescents. Additionally, UHR adolescents with a high numbers of SLE were observed to have a better benefi t of the ACT on global, symptoms and behavioral diffi culties.
Resumo:
PRINCIPLE: Healthcare professionals' (HCPs') perception of risk associated with drug use in pregnancy may have an impact on the pharmacological treatment of some women. The aim of this study was to examine this risk perception in a sample of Swiss HCPs with a special focus on their knowledge and use of available specialised information sources. METHOD: An online, French and German, questionnaire was e-mailed to 7,136 members of four Swiss professional societies (gynaecologists, paediatricians, midwives and pharmacists). The questionnaire was designed (a) to collect demographic characteristics, (b) to evaluate the frequency of use of several specialised sources of information on drugs in pregnancy in their daily practice, and (c) to examine the perception of risk associated with drug use during pregnancy. RESULTS: A total of 1,310 questionnaires were collected (response rate of 18.4%). More than 80% of the respondent HCPs use the Swiss Drug Reference Book (Compendium) to assess the risk associated with drugs during pregnancy and are not aware of available specialised information sources (books, websites or information centres). Despite some disparities between HPCs, the risk related to drug intake was overall highly misperceived. Blinded reading of three product monographs in the Compendium was associated with an overestimated perception of risk (e.g., after reading the "paracetamol" monograph, 38% of the participants stated they would probably not advise the use of this drug to a pregnant patient). CONCLUSION: Overall, an overestimation of the risk associated with drug use during pregnancy has been observed in our sample of HCPs, which might be related to the underuse of specialised information source among other factors. These findings evidenced the need for increased training for HCPs in order to optimise medication use during pregnancy. Further studies are needed to confirm these results and identify causes.
Resumo:
OBJECTIVE: To assess the impact of introducing clinical practice guidelines on acute coronary syndrome without persistent ST segment elevation (ACS) on patient initial assessment. DESIGN: Prospective before-after evaluation over a 3-month period. SETTING: The emergency ward of a tertiary teaching hospital. PATIENTS: All consecutive patients with ACS evaluated in the emergency ward over the two 3-month periods. INTERVENTION: Implementation of the practice guidelines, and the addition of a cardiology consultant to the emergency team. MAIN OUTCOME MEASURES: Diagnosis, electrocardiogram interpretation, and risk stratification after the initial evaluation. RESULTS: The clinical characteristics of the 328 and 364 patients evaluated in the emergency ward for suspicion of ACS before and after guideline implementation were similar. Significantly more patients were classified as suffering from atypical chest pain (39.6% versus 47.0%; P = 0.006) after guideline implementation. Guidelines availability was associated with significantly more formal diagnoses (79.9% versus 92.9%; P < 0.0001) and risk stratification (53.7% versus 65.4%, P < 0.0001) at the end of initial assessment. CONCLUSION: Guidelines implementation, along with availability of a cardiology consultant in the emergency room had a positive impact on initial assessment of patients evaluated for suspicion of ACS. It led to increased confidence in diagnosis and stratification by risk, which are the first steps in initiating effective treatment for this common condition.
Resumo:
In Switzerland the new law on Health Insurance, effective since 1996, introduced pro competitive changes in the market of sickness funds. The legislator expected high mobility between sickness funds of both healthy and sick insured as open enrolment was introduced with the new law. That is why the risk adjustment scheme, that was already introduced 1993, was limited until 2005. However, consumer mobility remained low and risk selection strategies are still profitable, since risk-adjustment is based only on demographic variables. This paper describes risk adjustment, consumer mobility, risk selection activities of sickness funds and the impact of imperfect risk adjustment on the development of HMO and PPO models. The paper concludes with a description of the current political and scientific discussion in Switzerland.
Resumo:
P>Aim: To determine the effects of imperfect adherence (i.e. occasionally missing prescribed doses), and the influence of rate of loss of antihypertensive effect during treatment interruption, on the predicted clinical effectiveness of antihypertensive drugs in reducing mean systolic blood pressure (SBP) and cardiovascular disease (CVD) risk.Method:The effects of imperfect adherence to antihypertensive treatment regimens were estimated using published patterns of missed doses, and taking into account the rate of loss of antihypertensive effect when doses are missed (loss of BP reduction in mmHg/day; the off-rate), which varies between drugs. Outcome measures were the predicted mean SBP reduction and CVD risk, determined from the Framingham Risk Equation for CVD.Results:In patients taking 75% of prescribed doses (typical of clinical practice), only long-acting drugs with an off-rate of similar to 1 mmHg/day were predicted to maintain almost the full mean SBP-lowering effect throughout the modelled period. In such patients, using shorter-acting drugs (e.g. an off-rate of similar to 5-6 mmHg/day) was predicted to lead to a clinically relevant loss of mean SBP reduction of > 2 mmHg. This change also influenced the predicted CVD risk reduction; in patients with a baseline 10-year CVD risk of 27.0% and who were taking 75% of prescribed doses, a difference in off-rate from 1 to 5 mmHg/day led to a predicted 0.5% absolute increase in 10-year CVD risk.Conclusions:In patients who occasionally miss doses of antihypertensives, modest differences in the rate of loss of antihypertensive effect following treatment interruption may have a clinically relevant impact on SBP reduction and CVD risk. While clinicians must make every effort to counsel and encourage each of their patients to adhere to their prescribed medication, it may also be prudent to prescribe drugs with a low off-rate to mitigate the potential consequences of missing doses.
Resumo:
OBJECTIVE: The aim of this study was to assess the association between frailty and risk for heart failure (HF) in older adults. BACKGROUND: Frailty is common in the elderly and is associated with adverse health outcomes. Impact of frailty on HF risk is not known. METHODS: We assessed the association between frailty, using the Health ABC Short Physical Performance Battery (HABC Battery) and the Gill index, and incident HF in 2825 participants aged 70 to 79 years. RESULTS: Mean age of participants was 74 ± 3 years; 48% were men and 59% were white. During a median follow up of 11.4 (7.1-11.7) years, 466 participants developed HF. Compared to non-frail participants, moderate (HR 1.36, 95% CI 1.08-1.71) and severe frailty (HR 1.88, 95% CI 1.02-3.47) by Gill index was associated with a higher risk for HF. HABC Battery score was linearly associated with HF risk after adjusting for the Health ABC HF Model (HR 1.24, 95% CI 1.13-1.36 per SD decrease in score) and remained significant when controlled for death as a competing risk (HR 1.30; 95% CI 1.00-1.55). Results were comparable across age, sex, and race, and in sub-groups based on diabetes mellitus or cardiovascular disease at baseline. Addition of HABC Battery scores to the Health ABC HF Risk Model improved discrimination (change in C-index, 0.014; 95% CI 0.018-0.010) and appropriately reclassified 13.4% (net-reclassification-improvement 0.073, 95% CI 0.021-0.125; P = .006) of participants (8.3% who developed HF and 5.1% who did not). CONCLUSIONS: Frailty is independently associated with risk of HF in older adults.
Resumo:
This cooperative study assessed prognostic factors for overall survival (OS) and risk of transformation to acute myeloid leukemia (AML) in 541 patients with de novo myelodysplastic syndrome (MDS) and deletion 5q. Additional chromosomal abnormalities were strongly related to different patients' characteristics. In multivariate analysis, the most important predictors of both OS and AML transformation risk were number of chromosomal abnormalities (P<0.001 for both outcomes), platelet count (P<0.001 and P=0.001, respectively) and proportion of bone marrow blasts (P<0.001 and P=0.016, respectively). The number of chromosomal abnormalities defined three risk categories for AML transformation (del(5q), del(5q)+1 and del(5q)+ ≥ 2 abnormalities) and two for OS (one group: del(5q) and del(5q)+1; and del(5q)+ ≥ 2 abnormalities, as the other one); with a median survival time of 58.0 and 6.8 months, respectively. Platelet count (P=0.001) and age (P=0.034) predicted OS in patients with '5q-syndrome'. This study demonstrates the importance of additional chromosomal abnormalities in MDS patients with deletion 5q, challenges the current '5q-syndrome' definition and constitutes a useful reference series to properly analyze the results of clinical trials in these patients.