996 resultados para risk analyse
Resumo:
Bien que de nombreuses études suggèrent des liens entre les troubles psychiatriques et les maladies cardiovasculaires (MCV), peu ont utilisé des investigations somatique, biologique et psychiatrique adéquates. Pour déterminer les potentiels mécanismes impliqués dans ces associations, plusieurs études ont investigué le lien entre les troubles psychiatriques et les facteurs de risque des maladies cardiovasculaires (FRCV) (surpoids, diabète, dyslipidémie, hypertension artérielle, inactivité, consommation de cigarettes). De plus, des biomarqueurs (régulateurs du métabolisme, marqueurs hépatiques et inflammatoires) pouvant être associés à la fois aux troubles psychiatriques et aux FRCV ont été étudiés mais avec des résultats contradictoires. Basée sur un large échantillon de la population générale de la Ville de Lausanne et des investigations somatique et psychiatrique adéquates, cette thèse comporte deux articles: le premier étudie l'association entre les troubles psychiatriques majeurs et les FRCV; le second établit les liens entre certains biomarqueurs et le développement du diabète de type 2. Appliquant une méthodologie rigoureuse sur un échantillon de 3716 sujets de la population lausannoise âgés de 35 à 66 ans, les résultats du premier article ont montré que 1) le sous-type atypique de la dépression était associé à une augmentation du risque de souffrir de plusieurs FRCV (surpoids, diabète et syndrome métabolique), contrairement à d'autres sous-types de dépression, 2) les problèmes d'alcool étaient associés à un risque accru de souffrir de diabète et de dyslipidémie, 3) presque tous les troubles psychiatriques étaient associés à une consommation régulière de cigarettes. Quant au deuxième article, parmi les différents biomarqueurs testés, seul un niveau bas d'adiponectine (une hormone produite par le tissu adipeux qui affecte la sensibilité à l'insuline) était associé à un risque accru de souffrir de diabète par la suite. Ces résultats soulignent la nécessité pour les spécialistes de distinguer les sous-types de dépression pour le risque cardiovasculaire et de donner une attention particulière au sous-type atypique. Un problème d'alcool comorbide pourrait accroître le risque cardiovasculaire. De plus, des efforts pour diminuer la cigarette chez les sujets souffrant de troubles psychiatriques seraient une mesure préventive importante contre le développement des MCV. Le rôle de l'adiponectine dans l'association entre les troubles psychiatriques et les FRCV restant incertain, une prochaine analyse devrait déterminer le lien entre ce biomarqueur et la dépression atypique. - Despite the fact that several studies have highlighted associations between psychiatric disorders and cardiovascular diseases (CVD), few have used adequate somatic, biological and psychiatric measures. To determine potential mechanisms implicated in these associations, several studies have assessed the relationship between psychiatric disorders and cardiovascular risk factors (CVRFs), such as overweight, diabetes, dyslipidemia, hypertension, physical inactivity and smoking. Moreover, biomarkers such as metabolic regulators, hepatic and inflammatory markers, which could be associated with both psychiatric disorders and CVRFs, have been studied yielding contradictory results. Based on a population-based sample from the city of Lausanne and using adequate somatic and psychiatric investigations, this dissertation encompasses two articles: the first studies the associations between major psychiatric disorders established for lifetime and CVRFs; the second studies the associations between certain biomarkers and the development of type 2 diabetes. Using standardized contemporary methodology in a sample composed of 3716 individuals aged from 35 to 66 years, the first article revealed associations between 1) the atypical depression subtype and an increased risk of several CVRFs (overweight, diabetes and the metabolic syndrome) in contrast to other depression subtypes; 2) alcohol disorders and an increased risk of diabetes and dyslipidemia; 3) almost all psychiatric disorders and a lifetime history of regular cigarette smoking. The second article showed, among the various biomarkers tested, that only lower levels of adiponectin (a hormone produced by adiposity which affects sensitivity to insulin) were associated with an increased risk of subsequent type 2 diabetes. Our results highlight the need for specialists to subtype depression when studying the cardiovascular risk and to pay particular attention to the atypical subtype. A comorbid alcohol misuse may further increase the cardiovascular risk. Moreover, efforts to diminish smoking in subjects suffering from psychiatric disorders could be an important tool for preventing subsequent CVD. The role of adiponectin in the association between psychiatric disorders and CVRFs should still be elucidated, and future analyses should focus in particular on the relationship between this biomarker and atypical depression.
Resumo:
Variation in body iron is associated with or causes diseases, including anaemia and iron overload. Here, we analyse genetic association data on biochemical markers of iron status from 11 European-population studies, with replication in eight additional cohorts (total up to 48,972 subjects). We find 11 genome-wide-significant (P<5 × 10(-8)) loci, some including known iron-related genes (HFE, SLC40A1, TF, TFR2, TFRC, TMPRSS6) and others novel (ABO, ARNTL, FADS2, NAT2, TEX14). SNPs at ARNTL, TF, and TFR2 affect iron markers in HFE C282Y homozygotes at risk for hemochromatosis. There is substantial overlap between our iron loci and loci affecting erythrocyte and lipid phenotypes. These results will facilitate investigation of the roles of iron in disease.
Resumo:
Rapport de synthèse : Introduction : plusieurs études observationnelles suggèrent qu'il existe une association entre le tabagisme actif et l'incidence du diabète de type 2. Toutefois de telles études n'ont jamais été synthétisées de façon systématique. Objectif : conduire une revue systématique avec meta-analyse des études évaluant l'association entre le tabagisme actif et l'incidence du diabète de type 2. Méthode : nous avons effectué une recherche dans les bases de donnée électroniques MEDLINE et EMBASE de 1966 à mai 2007, et l'avons complétée par une recherche manuelle des bibliographies des articles clés retenus ainsi que par la recherche d'abstracts de congrès scientifiques et le contact d'experts. Pour être inclues dans notre revue, les études devaient avoir un design de type cohorte, reporter un risque de glycémies jeun élevée, d'intolérance au glucose ou de diabète de type 2 en relation avec le statut tabagique des participants lors du recrutement et devaient exclure les sujets avec un diabète au début de l'étude. Deux auteurs ont sélectionné de façon indépendante les études et ont extrait les données. Les risques relatifs de diabète étaient ensuite compilés, utilisant un modèle de type « random effect ». Résultats : la recherche a aboutit à 25 études de cohorte prospectives (N=1'165'374 participants) et a reporté en tout 45'844 cas de diabète de type 2 pendant une durée de suivi s'étendant sur 5 à 30 années. Sur les 25 études, 24 reportaient un risque augmenté de diabète chez les fumeurs par comparaison aux non fumeurs. Le risque relatif (RR) commun de toutes les études était de 1.44 (intervalle de confiance (IC) à 95% : 1.31-1.58). Le risque de diabète était plus élevé chez les fumeurs de plus de 20 cigarettes par jour (RR : 1.61, IC 95% : 1.43-1.80) en comparaison aux fumeurs ayant une consommation inférieure (RR : 1.29, IC 95% : 1.13-1.48) et le risque était moindre pour les anciens fumeurs (RR :1.23; IC 95% : 1.14-1.33) comparé aux fumeurs actifs. Ces éléments parlent en faveur d'un effet dose-réponse et donc d'une relation de causalité, sans pour autant la prouver. Conclusion : notre étude révèle que le tabagisme actif est associé avec un risque augmenté de 44% de diabète de type 2. Des recherches futures sont nécessaires pour évaluer si cette association est causale et pour clarifier les mécanismes d'action. Dans l'intervalle, les professionnels de santé devraient mentionner l'éviction du diabète comme une raison supplémentaire d'arrêter de fumer ou de ne pas commencer à fumer.
Resumo:
Ces dernières années, de nombreuses recherches ont mis en évidence les effets toxiques des micropolluants organiques pour les espèces de nos lacs et rivières. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, alors que les organismes sont exposés tous les jours à des milliers de substances en mélange. Or les effets de ces cocktails ne sont pas négligeables. Cette thèse de doctorat s'est ainsi intéressée aux modèles permettant de prédire le risque environnemental de ces cocktails pour le milieu aquatique. Le principal objectif a été d'évaluer le risque écologique des mélanges de substances chimiques mesurées dans le Léman, mais aussi d'apporter un regard critique sur les méthodologies utilisées afin de proposer certaines adaptations pour une meilleure estimation du risque. Dans la première partie de ce travail, le risque des mélanges de pesticides et médicaments pour le Rhône et pour le Léman a été établi en utilisant des approches envisagées notamment dans la législation européenne. Il s'agit d'approches de « screening », c'est-à-dire permettant une évaluation générale du risque des mélanges. Une telle approche permet de mettre en évidence les substances les plus problématiques, c'est-à-dire contribuant le plus à la toxicité du mélange. Dans notre cas, il s'agit essentiellement de 4 pesticides. L'étude met également en évidence que toutes les substances, même en trace infime, contribuent à l'effet du mélange. Cette constatation a des implications en terme de gestion de l'environnement. En effet, ceci implique qu'il faut réduire toutes les sources de polluants, et pas seulement les plus problématiques. Mais l'approche proposée présente également un biais important au niveau conceptuel, ce qui rend son utilisation discutable, en dehors d'un screening, et nécessiterait une adaptation au niveau des facteurs de sécurité employés. Dans une deuxième partie, l'étude s'est portée sur l'utilisation des modèles de mélanges dans le calcul de risque environnemental. En effet, les modèles de mélanges ont été développés et validés espèce par espèce, et non pour une évaluation sur l'écosystème en entier. Leur utilisation devrait donc passer par un calcul par espèce, ce qui est rarement fait dû au manque de données écotoxicologiques à disposition. Le but a été donc de comparer, avec des valeurs générées aléatoirement, le calcul de risque effectué selon une méthode rigoureuse, espèce par espèce, avec celui effectué classiquement où les modèles sont appliqués sur l'ensemble de la communauté sans tenir compte des variations inter-espèces. Les résultats sont dans la majorité des cas similaires, ce qui valide l'approche utilisée traditionnellement. En revanche, ce travail a permis de déterminer certains cas où l'application classique peut conduire à une sous- ou sur-estimation du risque. Enfin, une dernière partie de cette thèse s'est intéressée à l'influence que les cocktails de micropolluants ont pu avoir sur les communautés in situ. Pour ce faire, une approche en deux temps a été adoptée. Tout d'abord la toxicité de quatorze herbicides détectés dans le Léman a été déterminée. Sur la période étudiée, de 2004 à 2009, cette toxicité due aux herbicides a diminué, passant de 4% d'espèces affectées à moins de 1%. Ensuite, la question était de savoir si cette diminution de toxicité avait un impact sur le développement de certaines espèces au sein de la communauté des algues. Pour ce faire, l'utilisation statistique a permis d'isoler d'autres facteurs pouvant avoir une influence sur la flore, comme la température de l'eau ou la présence de phosphates, et ainsi de constater quelles espèces se sont révélées avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps. Fait intéressant, une partie d'entre-elles avait déjà montré des comportements similaires dans des études en mésocosmes. En conclusion, ce travail montre qu'il existe des modèles robustes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques, et qu'ils peuvent être utilisés pour expliquer le rôle des substances dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application. - Depuis plusieurs années, les risques que posent les micropolluants organiques pour le milieu aquatique préoccupent grandement les scientifiques ainsi que notre société. En effet, de nombreuses recherches ont mis en évidence les effets toxiques que peuvent avoir ces substances chimiques sur les espèces de nos lacs et rivières, quand elles se retrouvent exposées à des concentrations aiguës ou chroniques. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, c'est à dire considérées séparément. Actuellement, il en est de même dans les procédures de régulation européennes, concernant la partie évaluation du risque pour l'environnement d'une substance. Or, les organismes sont exposés tous les jours à des milliers de substances en mélange, et les effets de ces "cocktails" ne sont pas négligeables. L'évaluation du risque écologique que pose ces mélanges de substances doit donc être abordé par de la manière la plus appropriée et la plus fiable possible. Dans la première partie de cette thèse, nous nous sommes intéressés aux méthodes actuellement envisagées à être intégrées dans les législations européennes pour l'évaluation du risque des mélanges pour le milieu aquatique. Ces méthodes sont basées sur le modèle d'addition des concentrations, avec l'utilisation des valeurs de concentrations des substances estimées sans effet dans le milieu (PNEC), ou à partir des valeurs des concentrations d'effet (CE50) sur certaines espèces d'un niveau trophique avec la prise en compte de facteurs de sécurité. Nous avons appliqué ces méthodes à deux cas spécifiques, le lac Léman et le Rhône situés en Suisse, et discuté les résultats de ces applications. Ces premières étapes d'évaluation ont montré que le risque des mélanges pour ces cas d'étude atteint rapidement une valeur au dessus d'un seuil critique. Cette valeur atteinte est généralement due à deux ou trois substances principales. Les procédures proposées permettent donc d'identifier les substances les plus problématiques pour lesquelles des mesures de gestion, telles que la réduction de leur entrée dans le milieu aquatique, devraient être envisagées. Cependant, nous avons également constaté que le niveau de risque associé à ces mélanges de substances n'est pas négligeable, même sans tenir compte de ces substances principales. En effet, l'accumulation des substances, même en traces infimes, atteint un seuil critique, ce qui devient plus difficile en terme de gestion du risque. En outre, nous avons souligné un manque de fiabilité dans ces procédures, qui peuvent conduire à des résultats contradictoires en terme de risque. Ceci est lié à l'incompatibilité des facteurs de sécurité utilisés dans les différentes méthodes. Dans la deuxième partie de la thèse, nous avons étudié la fiabilité de méthodes plus avancées dans la prédiction de l'effet des mélanges pour les communautés évoluant dans le système aquatique. Ces méthodes reposent sur le modèle d'addition des concentrations (CA) ou d'addition des réponses (RA) appliqués sur les courbes de distribution de la sensibilité des espèces (SSD) aux substances. En effet, les modèles de mélanges ont été développés et validés pour être appliqués espèce par espèce, et non pas sur plusieurs espèces agrégées simultanément dans les courbes SSD. Nous avons ainsi proposé une procédure plus rigoureuse, pour l'évaluation du risque d'un mélange, qui serait d'appliquer d'abord les modèles CA ou RA à chaque espèce séparément, et, dans une deuxième étape, combiner les résultats afin d'établir une courbe SSD du mélange. Malheureusement, cette méthode n'est pas applicable dans la plupart des cas, car elle nécessite trop de données généralement indisponibles. Par conséquent, nous avons comparé, avec des valeurs générées aléatoirement, le calcul de risque effectué selon cette méthode plus rigoureuse, avec celle effectuée traditionnellement, afin de caractériser la robustesse de cette approche qui consiste à appliquer les modèles de mélange sur les courbes SSD. Nos résultats ont montré que l'utilisation de CA directement sur les SSDs peut conduire à une sous-estimation de la concentration du mélange affectant 5 % ou 50% des espèces, en particulier lorsque les substances présentent un grand écart- type dans leur distribution de la sensibilité des espèces. L'application du modèle RA peut quant à lui conduire à une sur- ou sous-estimations, principalement en fonction de la pente des courbes dose- réponse de chaque espèce composant les SSDs. La sous-estimation avec RA devient potentiellement importante lorsque le rapport entre la EC50 et la EC10 de la courbe dose-réponse des espèces est plus petit que 100. Toutefois, la plupart des substances, selon des cas réels, présentent des données d' écotoxicité qui font que le risque du mélange calculé par la méthode des modèles appliqués directement sur les SSDs reste cohérent et surestimerait plutôt légèrement le risque. Ces résultats valident ainsi l'approche utilisée traditionnellement. Néanmoins, il faut garder à l'esprit cette source d'erreur lorsqu'on procède à une évaluation du risque d'un mélange avec cette méthode traditionnelle, en particulier quand les SSD présentent une distribution des données en dehors des limites déterminées dans cette étude. Enfin, dans la dernière partie de cette thèse, nous avons confronté des prédictions de l'effet de mélange avec des changements biologiques observés dans l'environnement. Dans cette étude, nous avons utilisé des données venant d'un suivi à long terme d'un grand lac européen, le lac Léman, ce qui offrait la possibilité d'évaluer dans quelle mesure la prédiction de la toxicité des mélanges d'herbicide expliquait les changements dans la composition de la communauté phytoplanctonique. Ceci à côté d'autres paramètres classiques de limnologie tels que les nutriments. Pour atteindre cet objectif, nous avons déterminé la toxicité des mélanges sur plusieurs années de 14 herbicides régulièrement détectés dans le lac, en utilisant les modèles CA et RA avec les courbes de distribution de la sensibilité des espèces. Un gradient temporel de toxicité décroissant a pu être constaté de 2004 à 2009. Une analyse de redondance et de redondance partielle, a montré que ce gradient explique une partie significative de la variation de la composition de la communauté phytoplanctonique, même après avoir enlevé l'effet de toutes les autres co-variables. De plus, certaines espèces révélées pour avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps, ont montré des comportements similaires dans des études en mésocosmes. On peut en conclure que la toxicité du mélange herbicide est l'un des paramètres clés pour expliquer les changements de phytoplancton dans le lac Léman. En conclusion, il existe diverses méthodes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques et celui-ci peut jouer un rôle dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application, avant d'utiliser leurs résultats pour la gestion des risques environnementaux. - For several years now, the scientists as well as the society is concerned by the aquatic risk organic micropollutants may pose. Indeed, several researches have shown the toxic effects these substances may induce on organisms living in our lakes or rivers, especially when they are exposed to acute or chronic concentrations. However, most of the studies focused on the toxicity of single compounds, i.e. considered individually. The same also goes in the current European regulations concerning the risk assessment procedures for the environment of these substances. But aquatic organisms are typically exposed every day simultaneously to thousands of organic compounds. The toxic effects resulting of these "cocktails" cannot be neglected. The ecological risk assessment of mixtures of such compounds has therefore to be addressed by scientists in the most reliable and appropriate way. In the first part of this thesis, the procedures currently envisioned for the aquatic mixture risk assessment in European legislations are described. These methodologies are based on the mixture model of concentration addition and the use of the predicted no effect concentrations (PNEC) or effect concentrations (EC50) with assessment factors. These principal approaches were applied to two specific case studies, Lake Geneva and the River Rhône in Switzerland, including a discussion of the outcomes of such applications. These first level assessments showed that the mixture risks for these studied cases exceeded rapidly the critical value. This exceeding is generally due to two or three main substances. The proposed procedures allow therefore the identification of the most problematic substances for which management measures, such as a reduction of the entrance to the aquatic environment, should be envisioned. However, it was also showed that the risk levels associated with mixtures of compounds are not negligible, even without considering these main substances. Indeed, it is the sum of the substances that is problematic, which is more challenging in term of risk management. Moreover, a lack of reliability in the procedures was highlighted, which can lead to contradictory results in terms of risk. This result is linked to the inconsistency in the assessment factors applied in the different methods. In the second part of the thesis, the reliability of the more advanced procedures to predict the mixture effect to communities in the aquatic system were investigated. These established methodologies combine the model of concentration addition (CA) or response addition (RA) with species sensitivity distribution curves (SSD). Indeed, the mixture effect predictions were shown to be consistent only when the mixture models are applied on a single species, and not on several species simultaneously aggregated to SSDs. Hence, A more stringent procedure for mixture risk assessment is proposed, that would be to apply first the CA or RA models to each species separately and, in a second step, to combine the results to build an SSD for a mixture. Unfortunately, this methodology is not applicable in most cases, because it requires large data sets usually not available. Therefore, the differences between the two methodologies were studied with datasets created artificially to characterize the robustness of the traditional approach applying models on species sensitivity distribution. The results showed that the use of CA on SSD directly might lead to underestimations of the mixture concentration affecting 5% or 50% of species, especially when substances present a large standard deviation of the distribution from the sensitivity of the species. The application of RA can lead to over- or underestimates, depending mainly on the slope of the dose-response curves of the individual species. The potential underestimation with RA becomes important when the ratio between the EC50 and the EC10 for the dose-response curve of the species composing the SSD are smaller than 100. However, considering common real cases of ecotoxicity data for substances, the mixture risk calculated by the methodology applying mixture models directly on SSDs remains consistent and would rather slightly overestimate the risk. These results can be used as a theoretical validation of the currently applied methodology. Nevertheless, when assessing the risk of mixtures, one has to keep in mind this source of error with this classical methodology, especially when SSDs present a distribution of the data outside the range determined in this study Finally, in the last part of this thesis, we confronted the mixture effect predictions with biological changes observed in the environment. In this study, long-term monitoring of a European great lake, Lake Geneva, provides the opportunity to assess to what extent the predicted toxicity of herbicide mixtures explains the changes in the composition of the phytoplankton community next to other classical limnology parameters such as nutrients. To reach this goal, the gradient of the mixture toxicity of 14 herbicides regularly detected in the lake was calculated, using concentration addition and response addition models. A decreasing temporal gradient of toxicity was observed from 2004 to 2009. Redundancy analysis and partial redundancy analysis showed that this gradient explains a significant portion of the variation in phytoplankton community composition, even when having removed the effect of all other co-variables. Moreover, some species that were revealed to be influenced positively or negatively, by the decrease of toxicity in the lake over time, showed similar behaviors in mesocosms studies. It could be concluded that the herbicide mixture toxicity is one of the key parameters to explain phytoplankton changes in Lake Geneva. To conclude, different methods exist to predict the risk of mixture in the ecosystems. But their reliability varies depending on the underlying hypotheses. One should therefore carefully consider these hypotheses, as well as the limits of the approaches, before using the results for environmental risk management
Resumo:
AIMS: To investigate the relationships between gestational diabetes mellitus (GDM) and the metabolic syndrome (MS), as it was suggested that insulin resistance was the hallmark of both conditions. To analyse post-partum screening in order to identify risk factors for the subsequent development of type 2 diabetes mellitus (DM). METHODS: A retrospective analysis of all singleton pregnancies diagnosed with GDM at the Lausanne University Hospital for 3 consecutive years. Pre-pregnancy obesity, hypertension and dyslipidaemia were recorded as constituents of the MS. RESULTS: For 5788 deliveries, 159 women (2.7%) with GDM were identified. Constituents of the MS were present before GDM pregnancy in 26% (n = 37/144): 84% (n = 31/37) were obese, 38% (n = 14/37) had hypertension and 22% (n = 8/37) had dyslipidaemia. Gestational hypertension was associated with obesity (OR = 3.2, P = 0.02) and dyslipidaemia (OR = 5.4, P=0.002). Seventy-four women (47%) returned for post-partum OGTT, which was abnormal in 20 women (27%): 11% (n = 8) had type 2 diabetes and 16% (n = 12) had impaired glucose tolerance. Independent predictors of abnormal glucose tolerance in the post-partum were: having > 2 abnormal values on the diagnostic OGTT during pregnancy and presenting MS constituents (OR = 5.2, CI 1.8-23.2 and OR = 5.3, CI 1.3-22.2). CONCLUSIONS: In one fourth of GDM pregnancies, metabolic abnormalities precede the appearance of glucose intolerance. These women have a high risk of developing the MS and type 2 diabetes in later years. Where GDM screening is not universal, practitioners should be aware of those metabolic risks in every pregnant woman presenting with obesity, hypertension or dyslipidaemia, in order to achieve better diagnosis and especially better post-partum follow-up and treatment.
Resumo:
[Table des matières] 1. Introduction. 2. Besoin en matière de programmes offrant une égalité des chances. 3. Programmes de promotion de la santé et de prévention évalués. 4. Mesures prises pour garantir l'égalité des chances d'accès lors de la conception et de la mise en oeuvre des programmes. 5. Participation aux programmes. 6. Quels obstacles à la participation des migrants et quels facteurs susceptibles de l'améliorer?: avis des personnes consultées. 7. Mesures recommandées. 8. Annexes. 9. Références.
Resumo:
Early repolarization, which is characterized by an elevation of the J-point on 12-lead electrocardiography, is a common finding that has been considered as benign for decades. However, in the last years, it has been related with vulnerability to idiopathic ventricular fibrillation and with cardiac mortality in the general population. Recently, 4 potential ECG predictors that could differentiate the benign from the malignant form of early repolarization have been suggested. Any previous study about early repolarization has been done in Spain. Aim. To ascertain whether the presence of early repolarization pattern in a resting electrocardiogram is associated with a major risk of cardiac death in a Spanish general population and to determine whether the presence of potential predictors of malignancy in a resting electrocardiogram increases the risk of cardiac mortality in patients with early repolarization pattern. Methods. We will analyse the presence of early repolarization and the occurrence of cardiac mortality in a retrospective cohort study of 4,279 participants aged 25 to 74 years in the province of Girona. This cohort has been followed during a mean of 9.8 years. Early repolarization will be stratified according to the degree of J-point elevation (≥0.1 mV or ≥0.2 mV), the morphology of the J-wave (slurring, notching or any of these two), the ST-segment pattern (ascending or descending) and the localization (inferior leads, lateral leads, or both). Association of early repolarization with cardiac death will be assessed by adjusted Cox-proportional hazards models
Resumo:
Résumé : Description : Ce travail de thèse évalue l'impact de la consommation importante d'alcool sur les facteurs de risque cardiovasculaire et l'estimation du risque cardiovasculaire à 10 ans (risque de développer une maladie coronarienne}, dans une population avec une consommation moyenne élevée d'alcool. La consommation modérée d'alcool a été liée à un risque plus faible de développer une maladie coronarienne. Cependant, les données concernant la consommation importante d'alcool et le risque de développer une maladie coronarienne sont conflictuelles. Il y a également peu d'études dans lesquelles les consommations importantes d'alcool ont pu être évaluées en raison du petit nombre de sujets présentant une telle consommation. Résultats: Nous avons utilisé les données de l'étude CoLaus, une étude populationnelle qui inclut des adultes, âgés de 35 à 75 ans, de la ville de Lausanne. Nous avons inclus 5'769 participants, sans maladie cardiovasculaire, pour lesquels la consommation d'alcool d'une semaine a été catégorisée en 0, 1 à 6, 7 à 13, 14 à 20, 21 à 27, 28 à 34 et >=35 verres/semaine et en non-consommateur (0 verre/semaine), consommateur modéré (1 à 13 verres/semaine), important (14 à 34 verres/semaine) et très important (>= 35). La tension artérielle et les lipides ont été mesurés et le risque de développer une maladie coronarienne à 10 ans a été calculé en utilisant le score de Framingham. 73% des participants consommaient de l'alcool; 16% étaient des consommateurs importants et 2% des consommateurs très importants. L'analyse rnultivariée a montré une augmentation du cholestérol HDL avec la consommation d'alcool (de 1.570.01 [moyenne +- erreur standard] chez les non consommateurs à 1.880.03 mmol/L chez les consommateurs très importants), des triglycérides (1.17+-1.01 à 1.32+-1.05 mmol/L) et des valeurs de tension artérielle systolique (127.4+-0.4 à 132.2+-.4 mm Hg) et diastolique (78.7+-0.3 à 81.7+-0.9 mm Hg, toutes les valeurs de p pour trend<0.001). Quant au risque de développer une maladie coronarienne à 10 ans, il a augmenté de 4.31%+-0.10 à 4.90%+-0.37 (p=0.03) avec la consommation d'alcool, en décrivant une courbe en J. En examinant le type de consommation, on a vu que la consommation de vin a plus d'effet sur l'augmentation des valeurs de cholestérol HDL, alors que la consommation de bière ou de spiritueux a plus d'effet sur l'augmentation des valeurs de triglycérides. Conclusions et perspectives: Nos résultats montrent qu'en ce qui concerne l'estimation du risque cardiovasculaire à 10 ans, l'effet protecteur de la consommation d'alcool disparaît pour des consommations très importantes, car l'effet bénéfique des valeurs augmentées de cholestérol HDL est contrecarré par l'augmentation des valeurs de tension artérielle. Quant aux différents types d'alcool, d'autres études sont nécessaires pour mieux évaluer leur effet spécifique sur les facteurs de risque cardiovasculaire.
Resumo:
The progress in prenatal medicine raises complex questions with respect to the physician-patient relationship. The physician needs to reconcile medical aspects, ethical principles as well as judicial norms. Already, during the first trimester, the physician has to put into practice the schedule combining for each individual pregnancy physical, laboratory and other appropriate exams. Physicians are under the obligation to inform in a clear and comprehensive way without creating unnecessary anxiety for their patients. Legal requirements include informed consent, the respect for the patient's right to self-determination, and compliance with the Swiss federal law on genetic testing, especially with its articles on prenatal screening and diagnosis. This article discusses the complexity of obstetrical practice when it comes to delivering adequate information within the scope of ethical and legal requirements in Switzerland. L'évolution de la médecine prénatale soulève des enjeux complexes dans la relation médecin-patient. Il s'agit de concilier à la fois les aspects médicaux, les principes éthiques et les normes juridiques. Dès le premier trimestre de la grossesse le médecin doit poser le cadre du suivi et des examens appropriés pour chaque grossesse. Son devoir est d'informer de manière claire et précise sans inquiéter inutilement, en respectant l'exigence légale d'un consentement éclairé et plus largement le droit de la patiente à l'autodétermination ainsi que le cadre de la loi fédérale suisse sur l'analyse génétique humaine dans le domaine du dépistage et du diagnostic prénatal. Cet article discute de la complexité de l'information et de l'application des principes éthiques et légaux dans la pratique obstétricale en Suisse.
Resumo:
Rapport de synthèse : Description : ce travail de thèse évalue de façon systématique les études sur l'association entre les dysfonctions thyroïdiennes infracliniques d'une part, et la maladie coronarienne et la mortalité d'autre part. Les hypothyroïdies infracliniques affectent environ 4-5% de la population adulte alors que la prévalence de l'hyperthyroïdie infraclinique est inférieure (environ 1%). L'éventuelle association entre elles pourrait justifier un dépistage systématique des dysfonctions thyroïdiennes infracliniques. Les précédentes études sur l'association entre l'hypothyroïdie infraclinique et la maladie coronarienne ont donné des résultats conflictuels. La parution de nouveaux articles récents basés sur de grandes cohortes prospectives nous a permis d'effectuer une méta-analyse basée uniquement sur des études de cohorte prospectives, augmentant ainsi la validité des résultats. Résultats: 10 des 12 études identifiées pour notre revue systématique sont basées sur des cohortes issues de la population générale («population-based »), regroupant en tout 14 449 participants. Ces 10 études examinent toutes le risque associé à l'hypothyroïdie infraclinique (avec 2134 événements coronariens et 2822 décès), alors que 5 étudient également le risque associé à l'hyperthyroïdie infraclinique (avec 1392 événements coronariens et 1993 décès). En utilisant un modèle statistique de type random-effect model, le risque relatif [RR] lié à l'hypothyroïdie infraclinique pour la maladie coronarienne est de 1.20 (intervalle de confiance [IC] de 95%, 0.97 à 1.49). Le risque diminue lorsque l'on regroupe uniquement les études de meilleure qualité (RR compris entre 1.02 et 1.08). Il est plus élevé parmi les participants de moins de 65 ans (RR, 1.51 [IC, 1.09 à 2.09] et 1.05 [IC, 0.90 à 1.22] pour les études dont l'âge moyen des participants est >_ 65 ans). Le RR de la mortalité cardiovasculaire est de 1.18 (IC, 0.98 à 1.42) et de 1.12 (IC, 0.99 à 1.26) pour la mortalité totale. En cas d'hyperthyroïdie infraclinique, les RR de la maladie coronarienne sont de 1.21 (IC, 0.88 à 1.68), de 1.19 (IC, 0.81 à 1.76) pour la mortalité cardiovasculaire, et de 1.12 (IC, 0.89 à 1.42) pour la mortalité totale. Conclusions et perspectives : nos résultats montrent que les dysfonctions thyroïdiennes infracliniques (hypothyroïdie et hyperthyroïdie infracliniques) représentent un facteur de risque modifiable, bien que modéré, de la maladie coronarienne et de la mortalité. L'efficacité du traitement de ces dysfonctions thyroïdiennes infracliniques doit encore être prouvée du point de vue cardiovasculaire et de la mortalité. Il est nécessaire d'effectuer des études contrôlées contre placebo avec le risque cardiovasculaire et la mortalité comme critères d'efficacité, avant de pouvoir proposer des recommandations sur le dépistage des ces dysfonctions thyroïdiennes dans la population adulte.
Resumo:
Les catastrophes sont souvent perçues comme des événements rapides et aléatoires. Si les déclencheurs peuvent être soudains, les catastrophes, elles, sont le résultat d'une accumulation des conséquences d'actions et de décisions inappropriées ainsi que du changement global. Pour modifier cette perception du risque, des outils de sensibilisation sont nécessaires. Des méthodes quantitatives ont été développées et ont permis d'identifier la distribution et les facteurs sous- jacents du risque.¦Le risque de catastrophes résulte de l'intersection entre aléas, exposition et vulnérabilité. La fréquence et l'intensité des aléas peuvent être influencées par le changement climatique ou le déclin des écosystèmes, la croissance démographique augmente l'exposition, alors que l'évolution du niveau de développement affecte la vulnérabilité. Chacune de ses composantes pouvant changer, le risque est dynamique et doit être réévalué périodiquement par les gouvernements, les assurances ou les agences de développement. Au niveau global, ces analyses sont souvent effectuées à l'aide de base de données sur les pertes enregistrées. Nos résultats montrent que celles-ci sont susceptibles d'être biaisées notamment par l'amélioration de l'accès à l'information. Elles ne sont pas exhaustives et ne donnent pas d'information sur l'exposition, l'intensité ou la vulnérabilité. Une nouvelle approche, indépendante des pertes reportées, est donc nécessaire.¦Les recherches présentées ici ont été mandatées par les Nations Unies et par des agences oeuvrant dans le développement et l'environnement (PNUD, l'UNISDR, la GTZ, le PNUE ou l'UICN). Ces organismes avaient besoin d'une évaluation quantitative sur les facteurs sous-jacents du risque, afin de sensibiliser les décideurs et pour la priorisation des projets de réduction des risques de désastres.¦La méthode est basée sur les systèmes d'information géographique, la télédétection, les bases de données et l'analyse statistique. Une importante quantité de données (1,7 Tb) et plusieurs milliers d'heures de calculs ont été nécessaires. Un modèle de risque global a été élaboré pour révéler la distribution des aléas, de l'exposition et des risques, ainsi que pour l'identification des facteurs de risque sous- jacent de plusieurs aléas (inondations, cyclones tropicaux, séismes et glissements de terrain). Deux indexes de risque multiples ont été générés pour comparer les pays. Les résultats incluent une évaluation du rôle de l'intensité de l'aléa, de l'exposition, de la pauvreté, de la gouvernance dans la configuration et les tendances du risque. Il apparaît que les facteurs de vulnérabilité changent en fonction du type d'aléa, et contrairement à l'exposition, leur poids décroît quand l'intensité augmente.¦Au niveau local, la méthode a été testée pour mettre en évidence l'influence du changement climatique et du déclin des écosystèmes sur l'aléa. Dans le nord du Pakistan, la déforestation induit une augmentation de la susceptibilité des glissements de terrain. Les recherches menées au Pérou (à base d'imagerie satellitaire et de collecte de données au sol) révèlent un retrait glaciaire rapide et donnent une évaluation du volume de glace restante ainsi que des scénarios sur l'évolution possible.¦Ces résultats ont été présentés à des publics différents, notamment en face de 160 gouvernements. Les résultats et les données générées sont accessibles en ligne (http://preview.grid.unep.ch). La méthode est flexible et facilement transposable à des échelles et problématiques différentes, offrant de bonnes perspectives pour l'adaptation à d'autres domaines de recherche.¦La caractérisation du risque au niveau global et l'identification du rôle des écosystèmes dans le risque de catastrophe est en plein développement. Ces recherches ont révélés de nombreux défis, certains ont été résolus, d'autres sont restés des limitations. Cependant, il apparaît clairement que le niveau de développement configure line grande partie des risques de catastrophes. La dynamique du risque est gouvernée principalement par le changement global.¦Disasters are often perceived as fast and random events. If the triggers may be sudden, disasters are the result of an accumulation of actions, consequences from inappropriate decisions and from global change. To modify this perception of risk, advocacy tools are needed. Quantitative methods have been developed to identify the distribution and the underlying factors of risk.¦Disaster risk is resulting from the intersection of hazards, exposure and vulnerability. The frequency and intensity of hazards can be influenced by climate change or by the decline of ecosystems. Population growth increases the exposure, while changes in the level of development affect the vulnerability. Given that each of its components may change, the risk is dynamic and should be reviewed periodically by governments, insurance companies or development agencies. At the global level, these analyses are often performed using databases on reported losses. Our results show that these are likely to be biased in particular by improvements in access to information. International losses databases are not exhaustive and do not give information on exposure, the intensity or vulnerability. A new approach, independent of reported losses, is necessary.¦The researches presented here have been mandated by the United Nations and agencies working in the development and the environment (UNDP, UNISDR, GTZ, UNEP and IUCN). These organizations needed a quantitative assessment of the underlying factors of risk, to raise awareness amongst policymakers and to prioritize disaster risk reduction projects.¦The method is based on geographic information systems, remote sensing, databases and statistical analysis. It required a large amount of data (1.7 Tb of data on both the physical environment and socio-economic parameters) and several thousand hours of processing were necessary. A comprehensive risk model was developed to reveal the distribution of hazards, exposure and risk, and to identify underlying risk factors. These were performed for several hazards (e.g. floods, tropical cyclones, earthquakes and landslides). Two different multiple risk indexes were generated to compare countries. The results include an evaluation of the role of the intensity of the hazard, exposure, poverty, governance in the pattern and trends of risk. It appears that the vulnerability factors change depending on the type of hazard, and contrary to the exposure, their weight decreases as the intensity increases.¦Locally, the method was tested to highlight the influence of climate change and the ecosystems decline on the hazard. In northern Pakistan, deforestation exacerbates the susceptibility of landslides. Researches in Peru (based on satellite imagery and ground data collection) revealed a rapid glacier retreat and give an assessment of the remaining ice volume as well as scenarios of possible evolution.¦These results were presented to different audiences, including in front of 160 governments. The results and data generated are made available online through an open source SDI (http://preview.grid.unep.ch). The method is flexible and easily transferable to different scales and issues, with good prospects for adaptation to other research areas. The risk characterization at a global level and identifying the role of ecosystems in disaster risk is booming. These researches have revealed many challenges, some were resolved, while others remained limitations. However, it is clear that the level of development, and more over, unsustainable development, configures a large part of disaster risk and that the dynamics of risk is primarily governed by global change.
Resumo:
We analyse the impact of working and contractual conditions, particularly exposure to job risks, on the probability of acquiring a permanent disability, controlling for other personal and firm characteristics. We postulate a model in which this impact is mediated by the choice of occupation, with a level of risk associated with it. We assume this choice is endogenous, and that it depends on preferences and opportunities in the labour market, both of which may differ between immigrants and natives. To test this hypothesis we apply a bivariate probit model to data for 2006 from the Continuous Sample of Working Lives provided by the Spanish Social Security system, containing records for over a million workers. We find that risk exposure increases the probability of permanent disability arising from any cause - by almost 5%.
Resumo:
Angio-oedema (AE) is a known adverse effect of angiotensin converting enzyme inhibitor (ACE-I) therapy. Over the past several decades, evidence of failure to diagnose this important and potentially fatal reaction is commonly found in the literature. Because this reaction is often seen first in the primary care setting, a review was undertaken to analyse and document the keys to both diagnostic criteria as well as to investigate potential risk factors for ACE-I AE occurrence. A general review of published literature was conducted through Medline, EMBASE, and the Cochrane Database, targeting ACE-I-related AE pathomechanism, diagnosis, epidemiology, risk factors, and clinical decision making and treatment. The incidence and severity of AE appears to be on the rise and there is evidence of considerable delay in diagnosis contributing to significant morbidity and mortality for patients. The mechanism of AE due to ACE-I drugs is not fully understood, but some genomic and metabolomic information has been correlated. Additional epidemiologic data and clinical treatment outcome predictors have been evaluated, creating a basis for future work on the development of clinical prediction tools to aid in risk identification and diagnostic differentiation. Accurate recognition of AE by the primary care provider is essential to limit the rising morbidity associated with ACE-I treatment-related AE. Research findings on the phenotypic indicators relevant to this group of patients as well as basic research into the pathomechanism of AE are available, and should be used in the construction of better risk analysis and clinical diagnostic tools for ACE-I AE.
Resumo:
Cette thèse comprend trois essais qui abordent l'information le processus d'ap-prentissage ainsi que le risque dans les marchés finances. Elle se concentre d'abord sur les implications à l'équilibre de l'hétérogénéité des agents à travers un processus d'apprentissage comprtemental et de mise à jour de l'information. De plus, elle examine les effets du partage des risques dans un reseau entreprise-fournisseur. Le premier chapitre étudie les effets du biais de disponibili sur l'évaluation des actifs. Ce biais décrit le fait que les agents surestiment l'importance de l'information acquise via l'expérience personnelle. L'hétérogénéité restante des différentes perceptions individuelles amène à une volonté d'échanges. Conformé¬ment aux données empiriques, les jeunes agents échangent plus mais en même temps souffrent d'une performance inférieure. Le deuxième chapitre se penche sur l'impact qu'ont les différences de modelisation entre les agents sur leurs percevons individuelles du processus de prix, dans le contexte des projections de modèles. Les agents sujets à un biais de projection pensent être représentatifs et interprètent les opinions des autres agents comme du bruit. Les agents, avec des modèles plus persistants, perçoivent que les prix réagissent de façon excessive lors des périodes de turbulence. Le troisième chapitre analyse l'impact du partage des risques dans la relation entreprise-fournisseur sur la décision optimale de financement de l'entreprise. Il étudie l'impact sur l'optimisation de la structure du capital ainsi que sur le coût du capital. Les résultats indiquent en particulier qu'un fournisseur avec un effet de levier faible est utile pour le financement d'un nouveau projet d'investissement. Pour des projets très rentables et des fournisseurs à faible effet de levier, le coût des capitaux propres de l'entreprise peut diminuer.
Resumo:
This paper presents a prototype of an interactive web-GIS tool for risk analysis of natural hazards, in particular for floods and landslides, based on open-source geospatial software and technologies. The aim of the presented tool is to assist the experts (risk managers) in analysing the impacts and consequences of a certain hazard event in a considered region, providing an essential input to the decision-making process in the selection of risk management strategies by responsible authorities and decision makers. This tool is based on the Boundless (OpenGeo Suite) framework and its client-side environment for prototype development, and it is one of the main modules of a web-based collaborative decision support platform in risk management. Within this platform, the users can import necessary maps and information to analyse areas at risk. Based on provided information and parameters, loss scenarios (amount of damages and number of fatalities) of a hazard event are generated on the fly and visualized interactively within the web-GIS interface of the platform. The annualized risk is calculated based on the combination of resultant loss scenarios with different return periods of the hazard event. The application of this developed prototype is demonstrated using a regional data set from one of the case study sites, Fella River of northeastern Italy, of the Marie Curie ITN CHANGES project.