961 resultados para Risk identification
Resumo:
Aim: To assess the specific effect of alcohol dependence (AD) or heroin dependence (HD) in patients and their spouses on the risk of psychopathology in their 276 6.0- to 17.9- year-old children (mean 11.3 years). Methods: The sample included 101 offspring of patients with AD, 23 of patients with HD, and 152 of medical controls, as well as their 2 parents. Participants were assessed using semistructured diagnostic interviews and family history reports by psychologists blind to patient diagnoses. Results: Children of HD and AD patients had largely elevated rates of recurrent major depressive disorder. Children of HD patients were also at an increased risk for attention deficit hyperactivity disorder and substance use disorders (SUD). There were interactions between SUD in the 2 parents to increase the risk of SUD in offspring. Conclusions: These results emphasize the need for prompt identification and treatment of these children and highlight the need to pay clinical attention not only to the patient, but also to the co-parent in order to optimize prevention in offspring.
Resumo:
OBJECTIVE: Intervention during the pre-psychotic period of illness holds the potential of delaying or even preventing the onset of a full-threshold disorder, or at least of reducing the impact of such a disorder if it does develop. The first step in realizing this aim was achieved more than 10 years ago with the development and validation of criteria for the identification of young people at ultra-high risk (UHR) of psychosis. Results of three clinical trials have been published that provide mixed support for the effectiveness of psychological and pharmacological interventions in preventing the onset of psychotic disorder. METHOD: The present paper describes a fourth study that has now been undertaken in which young people who met UHR criteria were randomized to one of three treatment groups: cognitive therapy plus risperidone (CogTher + Risp: n = 43); cognitive therapy plus placebo (CogTher + Placebo: n = 44); and supportive counselling + placebo (Supp + Placebo; n = 28). A fourth group of young people who did not agree to randomization were also followed up (monitoring: n = 78). Baseline characteristics of participants are provided. RESULTS AND CONCLUSION: The present study improves on the previous studies because treatment was provided for 12 months and the independent contributions of psychological and pharmacological treatments in preventing transition to psychosis in the UHR cohort and on levels of psychopathology and functioning can be directly compared. Issues associated with recruitment and randomization are discussed.
Resumo:
Ces dernières années, de nombreuses recherches ont mis en évidence les effets toxiques des micropolluants organiques pour les espèces de nos lacs et rivières. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, alors que les organismes sont exposés tous les jours à des milliers de substances en mélange. Or les effets de ces cocktails ne sont pas négligeables. Cette thèse de doctorat s'est ainsi intéressée aux modèles permettant de prédire le risque environnemental de ces cocktails pour le milieu aquatique. Le principal objectif a été d'évaluer le risque écologique des mélanges de substances chimiques mesurées dans le Léman, mais aussi d'apporter un regard critique sur les méthodologies utilisées afin de proposer certaines adaptations pour une meilleure estimation du risque. Dans la première partie de ce travail, le risque des mélanges de pesticides et médicaments pour le Rhône et pour le Léman a été établi en utilisant des approches envisagées notamment dans la législation européenne. Il s'agit d'approches de « screening », c'est-à-dire permettant une évaluation générale du risque des mélanges. Une telle approche permet de mettre en évidence les substances les plus problématiques, c'est-à-dire contribuant le plus à la toxicité du mélange. Dans notre cas, il s'agit essentiellement de 4 pesticides. L'étude met également en évidence que toutes les substances, même en trace infime, contribuent à l'effet du mélange. Cette constatation a des implications en terme de gestion de l'environnement. En effet, ceci implique qu'il faut réduire toutes les sources de polluants, et pas seulement les plus problématiques. Mais l'approche proposée présente également un biais important au niveau conceptuel, ce qui rend son utilisation discutable, en dehors d'un screening, et nécessiterait une adaptation au niveau des facteurs de sécurité employés. Dans une deuxième partie, l'étude s'est portée sur l'utilisation des modèles de mélanges dans le calcul de risque environnemental. En effet, les modèles de mélanges ont été développés et validés espèce par espèce, et non pour une évaluation sur l'écosystème en entier. Leur utilisation devrait donc passer par un calcul par espèce, ce qui est rarement fait dû au manque de données écotoxicologiques à disposition. Le but a été donc de comparer, avec des valeurs générées aléatoirement, le calcul de risque effectué selon une méthode rigoureuse, espèce par espèce, avec celui effectué classiquement où les modèles sont appliqués sur l'ensemble de la communauté sans tenir compte des variations inter-espèces. Les résultats sont dans la majorité des cas similaires, ce qui valide l'approche utilisée traditionnellement. En revanche, ce travail a permis de déterminer certains cas où l'application classique peut conduire à une sous- ou sur-estimation du risque. Enfin, une dernière partie de cette thèse s'est intéressée à l'influence que les cocktails de micropolluants ont pu avoir sur les communautés in situ. Pour ce faire, une approche en deux temps a été adoptée. Tout d'abord la toxicité de quatorze herbicides détectés dans le Léman a été déterminée. Sur la période étudiée, de 2004 à 2009, cette toxicité due aux herbicides a diminué, passant de 4% d'espèces affectées à moins de 1%. Ensuite, la question était de savoir si cette diminution de toxicité avait un impact sur le développement de certaines espèces au sein de la communauté des algues. Pour ce faire, l'utilisation statistique a permis d'isoler d'autres facteurs pouvant avoir une influence sur la flore, comme la température de l'eau ou la présence de phosphates, et ainsi de constater quelles espèces se sont révélées avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps. Fait intéressant, une partie d'entre-elles avait déjà montré des comportements similaires dans des études en mésocosmes. En conclusion, ce travail montre qu'il existe des modèles robustes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques, et qu'ils peuvent être utilisés pour expliquer le rôle des substances dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application. - Depuis plusieurs années, les risques que posent les micropolluants organiques pour le milieu aquatique préoccupent grandement les scientifiques ainsi que notre société. En effet, de nombreuses recherches ont mis en évidence les effets toxiques que peuvent avoir ces substances chimiques sur les espèces de nos lacs et rivières, quand elles se retrouvent exposées à des concentrations aiguës ou chroniques. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, c'est à dire considérées séparément. Actuellement, il en est de même dans les procédures de régulation européennes, concernant la partie évaluation du risque pour l'environnement d'une substance. Or, les organismes sont exposés tous les jours à des milliers de substances en mélange, et les effets de ces "cocktails" ne sont pas négligeables. L'évaluation du risque écologique que pose ces mélanges de substances doit donc être abordé par de la manière la plus appropriée et la plus fiable possible. Dans la première partie de cette thèse, nous nous sommes intéressés aux méthodes actuellement envisagées à être intégrées dans les législations européennes pour l'évaluation du risque des mélanges pour le milieu aquatique. Ces méthodes sont basées sur le modèle d'addition des concentrations, avec l'utilisation des valeurs de concentrations des substances estimées sans effet dans le milieu (PNEC), ou à partir des valeurs des concentrations d'effet (CE50) sur certaines espèces d'un niveau trophique avec la prise en compte de facteurs de sécurité. Nous avons appliqué ces méthodes à deux cas spécifiques, le lac Léman et le Rhône situés en Suisse, et discuté les résultats de ces applications. Ces premières étapes d'évaluation ont montré que le risque des mélanges pour ces cas d'étude atteint rapidement une valeur au dessus d'un seuil critique. Cette valeur atteinte est généralement due à deux ou trois substances principales. Les procédures proposées permettent donc d'identifier les substances les plus problématiques pour lesquelles des mesures de gestion, telles que la réduction de leur entrée dans le milieu aquatique, devraient être envisagées. Cependant, nous avons également constaté que le niveau de risque associé à ces mélanges de substances n'est pas négligeable, même sans tenir compte de ces substances principales. En effet, l'accumulation des substances, même en traces infimes, atteint un seuil critique, ce qui devient plus difficile en terme de gestion du risque. En outre, nous avons souligné un manque de fiabilité dans ces procédures, qui peuvent conduire à des résultats contradictoires en terme de risque. Ceci est lié à l'incompatibilité des facteurs de sécurité utilisés dans les différentes méthodes. Dans la deuxième partie de la thèse, nous avons étudié la fiabilité de méthodes plus avancées dans la prédiction de l'effet des mélanges pour les communautés évoluant dans le système aquatique. Ces méthodes reposent sur le modèle d'addition des concentrations (CA) ou d'addition des réponses (RA) appliqués sur les courbes de distribution de la sensibilité des espèces (SSD) aux substances. En effet, les modèles de mélanges ont été développés et validés pour être appliqués espèce par espèce, et non pas sur plusieurs espèces agrégées simultanément dans les courbes SSD. Nous avons ainsi proposé une procédure plus rigoureuse, pour l'évaluation du risque d'un mélange, qui serait d'appliquer d'abord les modèles CA ou RA à chaque espèce séparément, et, dans une deuxième étape, combiner les résultats afin d'établir une courbe SSD du mélange. Malheureusement, cette méthode n'est pas applicable dans la plupart des cas, car elle nécessite trop de données généralement indisponibles. Par conséquent, nous avons comparé, avec des valeurs générées aléatoirement, le calcul de risque effectué selon cette méthode plus rigoureuse, avec celle effectuée traditionnellement, afin de caractériser la robustesse de cette approche qui consiste à appliquer les modèles de mélange sur les courbes SSD. Nos résultats ont montré que l'utilisation de CA directement sur les SSDs peut conduire à une sous-estimation de la concentration du mélange affectant 5 % ou 50% des espèces, en particulier lorsque les substances présentent un grand écart- type dans leur distribution de la sensibilité des espèces. L'application du modèle RA peut quant à lui conduire à une sur- ou sous-estimations, principalement en fonction de la pente des courbes dose- réponse de chaque espèce composant les SSDs. La sous-estimation avec RA devient potentiellement importante lorsque le rapport entre la EC50 et la EC10 de la courbe dose-réponse des espèces est plus petit que 100. Toutefois, la plupart des substances, selon des cas réels, présentent des données d' écotoxicité qui font que le risque du mélange calculé par la méthode des modèles appliqués directement sur les SSDs reste cohérent et surestimerait plutôt légèrement le risque. Ces résultats valident ainsi l'approche utilisée traditionnellement. Néanmoins, il faut garder à l'esprit cette source d'erreur lorsqu'on procède à une évaluation du risque d'un mélange avec cette méthode traditionnelle, en particulier quand les SSD présentent une distribution des données en dehors des limites déterminées dans cette étude. Enfin, dans la dernière partie de cette thèse, nous avons confronté des prédictions de l'effet de mélange avec des changements biologiques observés dans l'environnement. Dans cette étude, nous avons utilisé des données venant d'un suivi à long terme d'un grand lac européen, le lac Léman, ce qui offrait la possibilité d'évaluer dans quelle mesure la prédiction de la toxicité des mélanges d'herbicide expliquait les changements dans la composition de la communauté phytoplanctonique. Ceci à côté d'autres paramètres classiques de limnologie tels que les nutriments. Pour atteindre cet objectif, nous avons déterminé la toxicité des mélanges sur plusieurs années de 14 herbicides régulièrement détectés dans le lac, en utilisant les modèles CA et RA avec les courbes de distribution de la sensibilité des espèces. Un gradient temporel de toxicité décroissant a pu être constaté de 2004 à 2009. Une analyse de redondance et de redondance partielle, a montré que ce gradient explique une partie significative de la variation de la composition de la communauté phytoplanctonique, même après avoir enlevé l'effet de toutes les autres co-variables. De plus, certaines espèces révélées pour avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps, ont montré des comportements similaires dans des études en mésocosmes. On peut en conclure que la toxicité du mélange herbicide est l'un des paramètres clés pour expliquer les changements de phytoplancton dans le lac Léman. En conclusion, il existe diverses méthodes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques et celui-ci peut jouer un rôle dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application, avant d'utiliser leurs résultats pour la gestion des risques environnementaux. - For several years now, the scientists as well as the society is concerned by the aquatic risk organic micropollutants may pose. Indeed, several researches have shown the toxic effects these substances may induce on organisms living in our lakes or rivers, especially when they are exposed to acute or chronic concentrations. However, most of the studies focused on the toxicity of single compounds, i.e. considered individually. The same also goes in the current European regulations concerning the risk assessment procedures for the environment of these substances. But aquatic organisms are typically exposed every day simultaneously to thousands of organic compounds. The toxic effects resulting of these "cocktails" cannot be neglected. The ecological risk assessment of mixtures of such compounds has therefore to be addressed by scientists in the most reliable and appropriate way. In the first part of this thesis, the procedures currently envisioned for the aquatic mixture risk assessment in European legislations are described. These methodologies are based on the mixture model of concentration addition and the use of the predicted no effect concentrations (PNEC) or effect concentrations (EC50) with assessment factors. These principal approaches were applied to two specific case studies, Lake Geneva and the River Rhône in Switzerland, including a discussion of the outcomes of such applications. These first level assessments showed that the mixture risks for these studied cases exceeded rapidly the critical value. This exceeding is generally due to two or three main substances. The proposed procedures allow therefore the identification of the most problematic substances for which management measures, such as a reduction of the entrance to the aquatic environment, should be envisioned. However, it was also showed that the risk levels associated with mixtures of compounds are not negligible, even without considering these main substances. Indeed, it is the sum of the substances that is problematic, which is more challenging in term of risk management. Moreover, a lack of reliability in the procedures was highlighted, which can lead to contradictory results in terms of risk. This result is linked to the inconsistency in the assessment factors applied in the different methods. In the second part of the thesis, the reliability of the more advanced procedures to predict the mixture effect to communities in the aquatic system were investigated. These established methodologies combine the model of concentration addition (CA) or response addition (RA) with species sensitivity distribution curves (SSD). Indeed, the mixture effect predictions were shown to be consistent only when the mixture models are applied on a single species, and not on several species simultaneously aggregated to SSDs. Hence, A more stringent procedure for mixture risk assessment is proposed, that would be to apply first the CA or RA models to each species separately and, in a second step, to combine the results to build an SSD for a mixture. Unfortunately, this methodology is not applicable in most cases, because it requires large data sets usually not available. Therefore, the differences between the two methodologies were studied with datasets created artificially to characterize the robustness of the traditional approach applying models on species sensitivity distribution. The results showed that the use of CA on SSD directly might lead to underestimations of the mixture concentration affecting 5% or 50% of species, especially when substances present a large standard deviation of the distribution from the sensitivity of the species. The application of RA can lead to over- or underestimates, depending mainly on the slope of the dose-response curves of the individual species. The potential underestimation with RA becomes important when the ratio between the EC50 and the EC10 for the dose-response curve of the species composing the SSD are smaller than 100. However, considering common real cases of ecotoxicity data for substances, the mixture risk calculated by the methodology applying mixture models directly on SSDs remains consistent and would rather slightly overestimate the risk. These results can be used as a theoretical validation of the currently applied methodology. Nevertheless, when assessing the risk of mixtures, one has to keep in mind this source of error with this classical methodology, especially when SSDs present a distribution of the data outside the range determined in this study Finally, in the last part of this thesis, we confronted the mixture effect predictions with biological changes observed in the environment. In this study, long-term monitoring of a European great lake, Lake Geneva, provides the opportunity to assess to what extent the predicted toxicity of herbicide mixtures explains the changes in the composition of the phytoplankton community next to other classical limnology parameters such as nutrients. To reach this goal, the gradient of the mixture toxicity of 14 herbicides regularly detected in the lake was calculated, using concentration addition and response addition models. A decreasing temporal gradient of toxicity was observed from 2004 to 2009. Redundancy analysis and partial redundancy analysis showed that this gradient explains a significant portion of the variation in phytoplankton community composition, even when having removed the effect of all other co-variables. Moreover, some species that were revealed to be influenced positively or negatively, by the decrease of toxicity in the lake over time, showed similar behaviors in mesocosms studies. It could be concluded that the herbicide mixture toxicity is one of the key parameters to explain phytoplankton changes in Lake Geneva. To conclude, different methods exist to predict the risk of mixture in the ecosystems. But their reliability varies depending on the underlying hypotheses. One should therefore carefully consider these hypotheses, as well as the limits of the approaches, before using the results for environmental risk management
Resumo:
Cette recherche s'applique aux témoins glaciaires des Chablais dans quatre de leurs dimensions : géopatrimoine, connaissance objective, inventaire de géosites et valorisation. Elle est organisée sur le canevas d'un processus de patrimonialisation auquel elle participe et qu'elle interroge à la fois. En 2009, débutait le projet 123 Chablais, pour une durée de quatre ans. Il concernait l'ensemble du territoire chablaisien, réparti sur deux pays (France et Suisse) et trois entités administratives (département de la Haute-Savoie, cantons de Vaud et du Valais). Ce projet, élaboré dans le cadre du programme Interreg IV France-Suisse, avait pour but de dynamiser le développement économique local en s'appuyant sur les patrimoines régionaux. Le géopatrimoine, identifié comme une de ces ressources, faisait donc l'objet de plusieurs actions, dont cette recherche. En parallèle, le Chablais haut-savoyard préparait sa candidature pour rejoindre l'European Geopark Network (EGN). Son intégration, effective dès 2012, a fait de ce territoire le cinquième géoparc français du réseau. Le Geopark du Chablais fonde son identité géologique sur l'eau et la glace, deux thématiques intimement liées aux témoins glaciaires. Dans ce contexte d'intérêt pour le géopatrimoine local et en particulier pour le patrimoine glaciaire, plusieurs missions ont été assignées à cette recherche qui devait à la fois améliorer la connaissance objective des témoins glaciaires, inventorier les géosites glaciaires et valoriser le patrimoine glaciaire. Le premier objectif de ce travail était d'acquérir une vision synthétique des témoins glaciaires. Il a nécessité une étape de synthèse bibliographique ainsi que sa spatialisation, afin d'identifier les lacunes de connaissance et la façon dont ce travail pouvait contribuer à les combler. Sur cette base, plusieurs méthodes ont été mises en oeuvre : cartographie géomorphologique, reconstitution des lignes d'équilibre glaciaires et datations de blocs erratiques à l'aide des isotopes cosmogéniques produits in situ. Les cartes géomorphologiques ont été élaborées en particulier dans les cirques et vallons glaciaires. Les datations cosmogéniques ont été concentrées sur deux stades du glacier du Rhône : le Last Local Glacial Maximum (LLGM) et le stade de Monthey. Au terme de cette étape, les spécificités du patrimoine glaciaire régional se sont révélées être 1) une grande diversité de formes et des liens étroits avec différents autres processus géomorphologiques ; 2) une appartenance des témoins glaciaires à dix grandes étapes de la déglaciation du bassin lémanique. Le second objectif était centré sur le processus d'inventaire des géosites glaciaires. Nous avons mis l'accent sur la sélection du géopatrimoine en développant une approche basée sur deux axes (temps et espace) identifiés dans le volet précédent et avons ainsi réalisé un inventaire à thèmes, composé de 32 géosites. La structure de l'inventaire a également été explorée de façon à intégrer des critères d'usage de ces géosites. Cette démarche, soutenue par une réflexion sur les valeurs attribuées au géopatrimoine et sur la façon d'évaluer ces valeurs, nous a permis de mettre en évidence le point de vue anthropo - et scientifico - centré qui prévaut nettement dans la recherche européenne sur le géopatrimoine. L'analyse des résultats de l'inventaire a fait apparaître quelques caractéristiques du patrimoine glaciaire chablaisien, discret, diversifié, et comportant deux spécificités exploitables dans le cadre d'une médiation scientifique : son statut de « berceau de la théorie glaciaire » et ses liens étroits avec des activités de la vie quotidienne, en tant que matière première, support de loisir ou facteur de risque. Cette recherche a débouché sur l'élaboration d'une exposition itinérante sur le patrimoine glaciaire des Chablais. Ce produit de valorisation géotouristique a été conçu pour sensibiliser la population locale à l'impact des glaciers sur son territoire. Il présente une série de sept cartes de stades glaciaires, encadrées par les deux mêmes thématiques, l'histoire de la connaissance glaciaire d'une part, les témoins glaciaires et la société, d'autre part. -- This research focuses on glacial witnesses in the Chablais area according to four dimensions : geoheritage, objective knowledge, inventory and promotion of geosites. It is organized on the model of an heritage's process which it participates and that it questions both. In 2009, the project 123 Chablais started for a period of four years. It covered the entire chablaisien territory spread over two countries and three administrative entities (département of Haute-Savoie, canton of Vaud, canton of Valais). This project, developed in the framework of the Interreg IV France-Switzerland program, aimed to boost the local development through regional heritage. The geoheritage identified as one of these resources, was therefore the subject of several actions, including this research. In parallel, the French Chablais was preparing its application to join the European Geopark Network (EGN). Its integration, effective since 2012, made of this area the fifth French Geopark of the network. The Chablais Geopark geological identity was based on water and ice, two themes closely linked to the glacial witnesses. In this context of interest for the regional geoheritage and especially for the glacial heritage, several missions have been assigned to this research which should improve objective knowledge of glacial witnesses, inventory and assess glacial geosites. The objective knowledge's component was to acquire a synthetic vision of the glacial witnesses. It required a first bibliography synthesis step in order to identify gaps in knowledge and how this work could help to fill them. On this basis, several methods have been implemented: geomorphological mapping, reconstruction of the equilibrium-line altitude and dating of glacial erratic blocks using cosmogenic isotopes produced in situ. Geomorphological maps have been developed especially in glacial cirques and valleys. Cosmogenic datings were concentrated on two stages of the Rhone glacier: the Last Local Glacial Maximum (LLGM) and « the stage of Monthey ». After this step, the specificities of the regional glacial heritage have emerged to us as 1) a wide variety of forms and links to various other geomorphological processes; 2) belonging of glacial witnesses to ten major glacial stages of Léman Lake's deglaciation. In the inventory of glacial geosites component we focused on the selection of geoheritage. We developed an approach based on two axes (time and space) identified in the preceding components. We obtained a thematic inventory, consisting of 32 geosites. The structure of the inventory was also explored in the aim to integrate use criteria of geosites. This approach, supported by a thought on the values attributed to the geoheritage and how to assess these values allowed us to highlight the point of view much anthropological - and scientific -centered prevailing in the European research on geoheritage. The analysis of the inventory's results revealed some characteristics of chablaisien glacial heritage, discrete, diverse, and with two features exploitable in the context of a scientific mediation: its status as « cradle of the glacial theory » and its close links with activities of daily life, as raw material, leisure support and risk factor. This research leads to the development of a traveling exhibition on the glacial heritage of the Chablais area. It presents a series of seven glacial stage's cards, framed by the two themes mentioned above: « history of glacial knowledge » and « glacial witnesses and society ».
Resumo:
Introduction: Beryllium (Be) is increasingly used in various industrial applications. Occupational exposure to Be may lead to chronic beryllium disease (CBD), a pulmonary granulomatous disorder closely similar to sarcoidosis, which develop in 1 to 15% of exposed workers. Although Switzerland is one of the major Be importers worldwide, little information is available about occurrence of exposure and the number of workers exposed in this country. Objectives: 1) evaluate the number of workers potentially exposed to Be in Switzerland; 2) construct a screening tool to allow potential Be exposure detection in a clinical setting. Methods: After identification of industrial sectors involving beryllium exposure based on expert reports and scientific literature, an estimation of the number of workers employed in these relevant industries was made using data from the Swiss federal population census and registries of economic activities. A second analysis was performed to estimate the fraction of workers really exposed to Be in each industrial sector. This adjustment was made according to the results of a French survey (INRS, Institut National de Recherche et de Sécurité) conducted by questionnaire addressed to 4500 companies in relevant industries on their use of beryllium and other issues such as percentage of employees really exposed. These realistic data were used to develop a self-administrated screening questionnaire allowed to identify patients with possible Be exposure. Results: In Switzerland, the number of workers employed in industries using Be was nearly 150 000. The estimated number of workers exposed to beryllium in these industries ranged from 2000 to 4000. Relevant sectors were: microengineering, precision turning, watchmaking and metal waste treatment and recycling. The validation of the self-administrated questionnaire containing a list of jobs and leisure activities associated with potential Be exposure is in progress within the framework of a national study. Conclusions: The number of workers potentially exposed to Be in Switzerland is rather high compared to estimations for other industrialized countries and might constitute an underestimated occupational health problem. Undetected Be exposure in patients with sarcoidosis may occur and result in misdiagnosis. Once validated, the self-administrated questionnaire could be used by clinicians to screen for Be exposure in patients with granulomatous lung disorders.
Resumo:
OBJECTIVE: To establish the genetic basis of Landau-Kleffner syndrome (LKS) in a cohort of two discordant monozygotic (MZ) twin pairs and 11 isolated cases. METHODS: We used a multifaceted approach to identify genetic risk factors for LKS. Array comparative genomic hybridization (CGH) was performed using the Agilent 180K array. Whole genome methylation profiling was undertaken in the two discordant twin pairs, three isolated LKS cases, and 12 control samples using the Illumina 27K array. Exome sequencing was undertaken in 13 patients with LKS including two sets of discordant MZ twins. Data were analyzed with respect to novel and rare variants, overlapping genes, variants in reported epilepsy genes, and pathway enrichment. RESULTS: A variant (cG1553A) was found in a single patient in the GRIN2A gene, causing an arginine to histidine change at site 518, a predicted glutamate binding site. Following copy number variation (CNV), methylation, and exome sequencing analysis, no single candidate gene was identified to cause LKS in the remaining cohort. However, a number of interesting additional candidate variants were identified including variants in RELN, BSN, EPHB2, and NID2. SIGNIFICANCE: A single mutation was identified in the GRIN2A gene. This study has identified a number of additional candidate genes including RELN, BSN, EPHB2, and NID2. A PowerPoint slide summarizing this article is available for download in the Supporting Information section here.
Resumo:
The aim of this work was the identification of new metabolites and transformation products (TPs) in chicken muscle from Enrofloxacin (ENR), Ciprofloxacin (CIP), Difloxacin (DIF) and Sarafloxacin (SAR), which are antibiotics that belong to the fluoroquinolones family. The stability of ENR, CIP, DIF and SAR standard solutions versus pH degradation process (from pH 1.5 to 8.0, simulating the pH since the drug is administered until its excretion) and freeze-thawing (F/T) cycles was tested. In addition, chicken muscle samples from medicated animals with ENR were analyzed in order to identify new metabolites and TPs. The identification of the different metabolites and TPs was accomplished by comparison of mass spectral data from samples and blanks, using liquid chromatography coupled to quadrupole time-of-flight (LC-QqToF) and Multiple Mass Defect Filter (MMDF) technique as a pre-filter to remove most of the background noise and endogenous components. Confirmation and structure elucidation was performed by liquid chromatography coupled to linear ion trap quadrupole Orbitrap (LC-LTQ-Orbitrap), due to its mass accuracy and MS/MS capacity for elemental composition determination. As a result, 21 TPs from ENR, 6 TPs from CIP, 14 TPs from DIF and 12 TPs from SAR were identified due to the pH shock and F/T cycles. On the other hand, 14 metabolites were identified from the medicated chicken muscle samples. Formation of CIP and SAR, from ENR and DIF, respectively, and the formation of desethylene-quinolone were the most remarkable identified compounds.
Resumo:
Background: Data on the frequency of extraintestinal manifestations (EIM) in Crohnʼs disease (CD) and ulcerative colitis (UC) are scarce. Goal: to evaluate prevalences, forms of EIM and risk factors in a large nationwide IBD cohort. Methods: Data from validated physician enrolment questionnaires of the adult Swiss IBD cohort were analyzed. Logistic regression models were used to identify EIM risk factors. Results: 950 patients were included, 580 (61%) with CD (mean age 43yrs) and 370 (39%) with UC (mean age 49yrs), of these, 249 (43%) of CD and 113 (31%) of UC patients had one to 5 EIM. The following EIM were found: arthritis (CD 33%, UC 21%), aphthous stomatitis (CD 10%, UC 4%), uveitis (CD 6%, UC 4%), erythema nodosum (CD 6%, UC 3%), ankylosing spondylitis (CD 6%, UC 2%), psoriasis (CD 2%, UC 1%), pyoderma gangrenosum (CD and UC each 2%), primary sclerosing cholangitis (CD 1%, UC 4%). Logistic regression in CD identified the following items as risk factors for ongoing EIM: active disease (OR 1.95, 95% CI 1.17-3.23, P=0.01), positive IBD family history (OR 1.77, 95% CI 1.07-2.92, P=0.025). No risk factors were identified in UC patients. Conclusions: EIM are a frequent problem in CD and UC patients. Active disease and positive IBD family history are associated with ongoing EIM in CD patients. Identification of EIM prevalence and associated risk factors may result in increased awareness for this problem and thereby facilitate their diagnosis and management.
Resumo:
The identification of clinical risk factors for AIDS in patients with preserved immune function is of significant interest. We examined whether patients with fungal infection (FI) and CD4 cell count >or=200/microl were at higher risk of disease progression in the era of cART. 11,009 EuroSIDA patients were followed from their first CD4 cell count >or=200/microl after 1 January 1997 until progression to any non-azoles/amphotericin B susceptible (AAS) AIDS disease, last visit or death. Initiation of antimycotic therapy (AMT) was used as a marker of FI and was modelled as a time-updated covariate using Poisson regression. After adjustment for current CD4 cell count, HIV-RNA, starting cART and diagnosis of AAS-AIDS, AMT was significantly associated with an increased incidence of non-AAS-AIDS (IRR=1.55, 95% CI 1.17-2.06, p=0.0024). Despite low incidence of AIDS in the cART era, FI in patients with a CD4 cell count >or=200/microl is associated with a 55% higher risk of non-AAS-AIDS (95% confidence interval 1.17-2.06, p=0.0024). These data suggest that patients with FI are more immune compromized than would be expected from their CD4 cell count alone. FI can be used as a clinical marker for disease progression and indirect indicator for initiation/changing cART in settings where laboratory facilities are limited.
Resumo:
Les catastrophes sont souvent perçues comme des événements rapides et aléatoires. Si les déclencheurs peuvent être soudains, les catastrophes, elles, sont le résultat d'une accumulation des conséquences d'actions et de décisions inappropriées ainsi que du changement global. Pour modifier cette perception du risque, des outils de sensibilisation sont nécessaires. Des méthodes quantitatives ont été développées et ont permis d'identifier la distribution et les facteurs sous- jacents du risque.¦Le risque de catastrophes résulte de l'intersection entre aléas, exposition et vulnérabilité. La fréquence et l'intensité des aléas peuvent être influencées par le changement climatique ou le déclin des écosystèmes, la croissance démographique augmente l'exposition, alors que l'évolution du niveau de développement affecte la vulnérabilité. Chacune de ses composantes pouvant changer, le risque est dynamique et doit être réévalué périodiquement par les gouvernements, les assurances ou les agences de développement. Au niveau global, ces analyses sont souvent effectuées à l'aide de base de données sur les pertes enregistrées. Nos résultats montrent que celles-ci sont susceptibles d'être biaisées notamment par l'amélioration de l'accès à l'information. Elles ne sont pas exhaustives et ne donnent pas d'information sur l'exposition, l'intensité ou la vulnérabilité. Une nouvelle approche, indépendante des pertes reportées, est donc nécessaire.¦Les recherches présentées ici ont été mandatées par les Nations Unies et par des agences oeuvrant dans le développement et l'environnement (PNUD, l'UNISDR, la GTZ, le PNUE ou l'UICN). Ces organismes avaient besoin d'une évaluation quantitative sur les facteurs sous-jacents du risque, afin de sensibiliser les décideurs et pour la priorisation des projets de réduction des risques de désastres.¦La méthode est basée sur les systèmes d'information géographique, la télédétection, les bases de données et l'analyse statistique. Une importante quantité de données (1,7 Tb) et plusieurs milliers d'heures de calculs ont été nécessaires. Un modèle de risque global a été élaboré pour révéler la distribution des aléas, de l'exposition et des risques, ainsi que pour l'identification des facteurs de risque sous- jacent de plusieurs aléas (inondations, cyclones tropicaux, séismes et glissements de terrain). Deux indexes de risque multiples ont été générés pour comparer les pays. Les résultats incluent une évaluation du rôle de l'intensité de l'aléa, de l'exposition, de la pauvreté, de la gouvernance dans la configuration et les tendances du risque. Il apparaît que les facteurs de vulnérabilité changent en fonction du type d'aléa, et contrairement à l'exposition, leur poids décroît quand l'intensité augmente.¦Au niveau local, la méthode a été testée pour mettre en évidence l'influence du changement climatique et du déclin des écosystèmes sur l'aléa. Dans le nord du Pakistan, la déforestation induit une augmentation de la susceptibilité des glissements de terrain. Les recherches menées au Pérou (à base d'imagerie satellitaire et de collecte de données au sol) révèlent un retrait glaciaire rapide et donnent une évaluation du volume de glace restante ainsi que des scénarios sur l'évolution possible.¦Ces résultats ont été présentés à des publics différents, notamment en face de 160 gouvernements. Les résultats et les données générées sont accessibles en ligne (http://preview.grid.unep.ch). La méthode est flexible et facilement transposable à des échelles et problématiques différentes, offrant de bonnes perspectives pour l'adaptation à d'autres domaines de recherche.¦La caractérisation du risque au niveau global et l'identification du rôle des écosystèmes dans le risque de catastrophe est en plein développement. Ces recherches ont révélés de nombreux défis, certains ont été résolus, d'autres sont restés des limitations. Cependant, il apparaît clairement que le niveau de développement configure line grande partie des risques de catastrophes. La dynamique du risque est gouvernée principalement par le changement global.¦Disasters are often perceived as fast and random events. If the triggers may be sudden, disasters are the result of an accumulation of actions, consequences from inappropriate decisions and from global change. To modify this perception of risk, advocacy tools are needed. Quantitative methods have been developed to identify the distribution and the underlying factors of risk.¦Disaster risk is resulting from the intersection of hazards, exposure and vulnerability. The frequency and intensity of hazards can be influenced by climate change or by the decline of ecosystems. Population growth increases the exposure, while changes in the level of development affect the vulnerability. Given that each of its components may change, the risk is dynamic and should be reviewed periodically by governments, insurance companies or development agencies. At the global level, these analyses are often performed using databases on reported losses. Our results show that these are likely to be biased in particular by improvements in access to information. International losses databases are not exhaustive and do not give information on exposure, the intensity or vulnerability. A new approach, independent of reported losses, is necessary.¦The researches presented here have been mandated by the United Nations and agencies working in the development and the environment (UNDP, UNISDR, GTZ, UNEP and IUCN). These organizations needed a quantitative assessment of the underlying factors of risk, to raise awareness amongst policymakers and to prioritize disaster risk reduction projects.¦The method is based on geographic information systems, remote sensing, databases and statistical analysis. It required a large amount of data (1.7 Tb of data on both the physical environment and socio-economic parameters) and several thousand hours of processing were necessary. A comprehensive risk model was developed to reveal the distribution of hazards, exposure and risk, and to identify underlying risk factors. These were performed for several hazards (e.g. floods, tropical cyclones, earthquakes and landslides). Two different multiple risk indexes were generated to compare countries. The results include an evaluation of the role of the intensity of the hazard, exposure, poverty, governance in the pattern and trends of risk. It appears that the vulnerability factors change depending on the type of hazard, and contrary to the exposure, their weight decreases as the intensity increases.¦Locally, the method was tested to highlight the influence of climate change and the ecosystems decline on the hazard. In northern Pakistan, deforestation exacerbates the susceptibility of landslides. Researches in Peru (based on satellite imagery and ground data collection) revealed a rapid glacier retreat and give an assessment of the remaining ice volume as well as scenarios of possible evolution.¦These results were presented to different audiences, including in front of 160 governments. The results and data generated are made available online through an open source SDI (http://preview.grid.unep.ch). The method is flexible and easily transferable to different scales and issues, with good prospects for adaptation to other research areas. The risk characterization at a global level and identifying the role of ecosystems in disaster risk is booming. These researches have revealed many challenges, some were resolved, while others remained limitations. However, it is clear that the level of development, and more over, unsustainable development, configures a large part of disaster risk and that the dynamics of risk is primarily governed by global change.
Resumo:
OBJECT: Reversible cerebral vasoconstriction syndrome (RCVS) is described as a clinical and radiological entity characterized by thunderclap headaches, a reversible segmental or multifocal vasoconstriction of cerebral arteries with or without focal neurological deficits or seizures. The purpose of this study is to determine risk factors of poor outcome in patients presented a RCVS. METHODS: A retrospective multi-center review of invasive and non-invasive neurovascular imaging between January 2006 and January 2011 has identified 10 patients with criterion of reversible segmental vasoconstriction syndrome. Demographics data, vascular risks and evolution of each of these patients were analyzed. RESULTS: Seven of the ten patients were females with a mean age of 46 years. In four patients, we did not found any causative factors. Two cases presented RCVS in post-partum period between their first and their third week after delivery. The other three cases were drug-induced RCVS, mainly vaso-active drugs. Cannabis was found as the causative factor in two patient, Sumatriptan identified in one patient while cyclosporine was the causative agent in also one patient. The mean duration of clinical follow-up was 10.2 months (range: 0-28 months). Two patients had neurological sequelae: one patient kept a dysphasia and the other had a homonymous lateral hemianopia. We could not find any significant difference of the evolution between secondary RCVS and idiopathic RCVS. The only two factors, which could be correlated to the clinical outcome were the neurological status at admission and the presence of intraparenchymal abnormalities (ischemic stroke, hematoma) in brain imaging. CONCLUSIONS: Fulminant vasoconstriction resulting in progressive symptoms or death has been reported in exceptional frequency. Physicians had to remember that such evolution could happen and predict them by identifying all factors of poor prognosis (neurological status at admission, the presence of intraparenchymal abnormalities).
Resumo:
Systemic juvenile idiopathic arthritis (SJIA) is an inflammatory condition characterized by fever, lymphadenopathy, arthritis, rash and serositis. Systemic inflammation has been associated with dysregulation of the innate immune system, suggesting that SJIA is an autoinflammatory disorder. IL-1 and IL-6 play a major role in the pathogenesis of SJIA, and treatment with IL-1 and IL-6 inhibitors has shown to be highly effective. However, complications of SJIA, including macrophage activation syndrome, limitations in functional outcome by arthritis and long-term damage from chronic inflammation, continue to be a major issue in SJIA patients' care. Translational research leading to a profound understanding of the cytokine crosstalk in SJIA and the identification of risk factors for SJIA complications will help to improve long-term outcome.
Resumo:
BACKGROUND: The mean age of acute dengue has undergone a shift towards older ages. This fact points towards the relevance of assessing the influence of age-related comorbidities, such as diabetes, on the clinical presentation of dengue episodes. Identification of factors associated with a severe presentation is of high relevance, because timely treatment is the most important intervention to avert complications and death. This review summarizes and evaluates the published evidence on the association between diabetes and the risk of a severe clinical presentation of dengue. METHODOLOGY/FINDINGS: A systematic literature review was conducted using the MEDLINE database to access any relevant association between dengue and diabetes. Five case-control studies (4 hospital-based, 1 population-based) compared the prevalence of diabetes (self-reported or abstracted from medical records) of persons with dengue (acute or past; controls) and patients with severe clinical manifestations. All except one study were conducted before 2009 and all studies collected information towards WHO 1997 classification system. The reported odds ratios were formally summarized by random-effects meta-analyses. A diagnosis of diabetes was associated with an increased risk for a severe clinical presentation of dengue (OR 1.75; 95% CI: 1.08-2.84, p = 0.022). CONCLUSIONS/SIGNIFICANCE: Large prospective studies that systematically and objectively obtain relevant signs and symptoms of dengue fever episodes as well as of hyperglycemia in the past, and at the time of dengue diagnosis, are needed to properly address the effect of diabetes on the clinical presentation of an acute dengue fever episode. The currently available epidemiological evidence is very limited and only suggestive. The increasing global prevalence of both dengue and diabetes justifies further studies. At this point, confirmation of dengue infection as early as possible in diabetes patients with fever if living in dengue endemic regions seems justified. The presence of this co-morbidity may warrant closer observation for glycemic control and adapted fluid management to diminish the risk for a severe clinical presentation of dengue.
Resumo:
OBJECTIVE: As universal screening of hypertension performs poorly in childhood, targeted screening to children at higher risk of hypertension has been proposed. Our goal was to assess the performance of combined parental history of hypertension and overweight/obesity to identify children with hypertension. We estimated the sensitivity, specificity, negative and positive predictive values of overweight/obesity and parental history of hypertension for the identification of hypertension in children. DESIGN AND METHOD: We analyzed data from a school-based cross-sectional study including 5207 children aged 10 to 14 years from all public 6th grade classes in the canton of Vaud, Switzerland. Blood pressure was measured with a clinically validated oscillometric automated device over up to three visits separated by one week. Children had hypertension if they had sustained elevated blood pressure over the three visits. Parents were interviewed about their history of hypertension. RESULTS: The prevalence of hypertension was 2.2%. 14% of children were overweight or obese and 20% had a positive history of hypertension in either or both parents. 30% of children had either or both conditions. After accounting for several potential confounding factors, parental history of hypertension (odds ratio (OR): 2.6; 95% confidence interval (CI): 1.8-4.0), overweight excluding obesity (OR: 2.5; 95% CI: 1.5-4.2) and obesity (OR: 10.1; 95% CI: 6.0-17.0) were associated with hypertension in children. Considered in isolation, the sensitivity and positive predictive values of parental history of hypertension (respectively 41% and 5%) or overweight/obesity (respectively 43% and 7%) were relatively low. Nevertheless, considered together, the sensitivity of targeted screening in children with either overweight/obesity or paternal history of hypertension was higher (65%) but the positive predictive value remained low (5%). The negative predictive value was systematically high. CONCLUSIONS: Restricting screening of hypertension to children with either overweight/obesity or with hypertensive parents would substantially limit the proportion of children to screen (30%) and allow the identification of a relatively large proportion (65%) of hypertensive cases. That could be a valuable alternative to universal screening.
Resumo:
Syndrome de stress scolaire chronique, le bumout de l'élève ou bumout scolaire suscite un intérêt grandissant mais ses déterminants sont encore peu connus. De plus, ce phénomène est rarement étudié chez les adolescents francophones et aucune recherche n'a encore été menée en Suisse. Par conséquent, au travers de ce travail de thèse, nous proposons d'étendre la recherche sur le bumout scolaire aux adolescents de Suisse francophone et d'apporter des précisions sur ses facteurs de risque ou de protection. Pour ce faire, nous avons mené deux recherches empiriques impliquant 861 adolescents âgés de 14 à 18 ans et scolarisés en Suisse francophone. Ces adolescents ont répondu à une série d'échelles évaluant notamment le burnout scolaire, le stress scolaire, le soutien social, la consommation de substances et le parcours scolaire. Les résultats montrent tout d'abord que l'inventaire de Burnout Scolaire, version française du School Burnout lnventory, est un outil fiable et valide. Ensuite, il apparaît que le burnout scolaire touche jusqu'à 24% des adolescents de Suisse francophone et que ce dernier se caractérise par une perte d'intérêt pour l'école, une grande remise en question du sens du travail scolaire ainsi qu'un sentiment élevé d'insuffisance à l'école. Il apparaît également que le stress scolaire lié au succès et à l'avenir scolaire augmente le risque de bumout alors que le soutien des parents et des enseignants le diminue. Par ailleurs, nous mettons en évidence que l'effet du soutien social sur le burnout scolaire est médiatisé par le stress scolaire, ce qui souligne d'autant plus le rôle protecteur du soutien social. Nos résultats montrent également que les niveaux de bumout scolaire varient en fonction, d'une part de certaines caractéristiques du contexte scolaire et d'autre part en fonction de la sévérité de la consommation de substances des adolescents. Enfin, les connaissances accumulées dans ce travail et leur mise en perspective dans un modèle d'intervention précoce permettent d'insister sur le rôle de l'école et des professionnels de l'école dans la prévention du burnout scolaire. -- Syndrome of chronic school stress, pupil 's bumout or school bumout is of growing interest. However, little is known about its determinants. Moreover, this phenomenon is rarely studied in French speaking adolescents and no research has yet been conducted in Switzerland. Therefore, through this thesis, we propose to extend the research on school bumout to Swiss French speaking adolescents and to clarify its risk and protective factors. To achieve this, we conducted two empirical research involving 861 adolescents aged 14 to 18 and enrolled in the French part of Switzerland. These adolescents were asked to answer a questionnaire about school bumout, academic stress, social support, substance use and schooling. Results first show, that the French version of the School Bumout Inventory is a reliable and valid tool. lt then appears that school bumout affects up to 24% of adolescents in the French speaking part of Switzerland and that this phenomenon is characterized by a loss of interest in school, a great challenge to the sense of school work and a high sense of insufissance school. lt also appears that stress related to school success and academic future increases the risk of bumout while parents and teachers support decreases it. Moreover, we highlight that the effect of social support on school bumout is mediated by school stress, which further underscores the protective role of social support. Our results also show that school bumout levels vary depending on characteristics of the school context and on the severity of substance use of adolecents. Finally, the knowledge accumulated in this work and putting it onto perspective within early intervention model enable to insist on the role of school and school professionals in the prevention of school bumout